18 avril 2011

 

 

Du boîtier à l’imprimante

 

Patrice FOIN

 

 

            0.Récapitulatif des opérations (aide mémoire).

 

            (les numéros renvoient aux chapitres correspondants, il n’y a pas d’opération en 2. donc pas de 0.2.)

 

            0.1.Déchargement de la carte mémoire sur l’ordinateur.

                        -dossier temporaire de déchargement

                        -éliminer les mauvaises photos et titrer les autres

                        -ne jamais traiter un original sans garder une copie

                        -faire des sauvegardes de temps à autre

                        -« faire le ménage » régulièrement (carte mémoire, corbeille de l’ordinateur)

            0.3.Recadrage, redressement, balance des blancs

            0.4.Travail dans l’espace des couleurs ; suivant les cas :

                        -Luminosité/Contraste puis Saturation

                        -Courbes puis Saturation (et éventuellement Luminosité/Contraste)

                        -ou simplement un peu de Saturation

            0.5.Traitements sur le voisinage des pixels (Filtres)

                        -Renforcement de netteté (bien choisir le seuil)

                        -élimination du bruit éventuel

                                   -sélection de la zone à traiter

                                   -Flou gaussien

            0.6.Retouches (taches de capteur,…)

            0.7.Habillage (cadre, titre)

            0.8.Changement de taille de l’image pour l’impression (choix du mode de rééchantillonnage)

            0.9.Impression

 

            Jusqu’à 4 niveaux de lecture !

-tout d’abord, ci-dessus, un récapitulatif des traitements préconisés dans l’ordre où ils doivent intervenir ;

-ensuite, un texte en caractère gras « tout public » expliquant en détail comment mettre en œuvre pratiquement les traitements en question ;

-enfin, en italique, les explications théoriques pour ceux qui veulent en savoir plus et comprendre le pourquoi des préconisations précédentes ; il demande un petit niveau en math et parfois en physique et il est complété si nécessaire par des explications d’un 4ème niveau beaucoup plus élevé.

 

            Le but de ce texte est avant tout de fournir un guide pour le traitement simple d’une photo numérique à tous ceux qui sont démunis et ne savent pas par quel bout commencer, quelles que soient leurs connaissances de base. Ceci implique qu’un certain nombre d’affirmations ne soient pas étayées. Comme il est légitime que ceux qui ont la base de connaissances scientifiques suffisante aient accès aux explications théoriques et aux justifications, il comporte également celles-ci dans les niveaux en italique.

 

Ce texte est une partie d’un texte plus vaste sur la photographie numérique en cours de préparation. Comme rien n’est jamais parfait, j’attends quelques retours sur ses imperfections majeures pour l’améliorer avant de le diffuser plus largement. Il n’est donc pas souhaitable qu’il reçoive une trop large diffusion avant qu’un tout cohérent soit constitué et peaufiné. Merci de ne pas le faire circuler inconsidérément pour le moment. Merci également de me faire parvenir toute remarque permettant de l’améliorer.

 

 

            Comme on pourra le comprendre en approfondissant les explications de troisième niveau, l’ordre des opérations à réaliser n’est pas du tout indifférent. L’inverser peut conduire à des dégradations du cliché non négligeables.

 

            Il s’agit ici des opérations que je réalise personnellement sur les meilleures de mes photos courantes. Je privilégie ces opérations pour des raisons qui paraîtront évidentes à ceux qui liront le troisième niveau. Mais il n’y a pas d’exclusive et il m’arrive personnellement d’utiliser un peu toutes les autres fonctions disponibles dans les logiciels dont je dispose, soit pour tester leur efficacité, soit parce qu’elles me paraissent mieux adaptées à certains cas très particuliers. Pour réaliser des éditions particulièrement soignées, comme par exemple des photos de concours, les mêmes opérations peuvent être peaufinées et quelques autres outils utilisés. Le sujet de l’utilisation des calques et masques ne sera pratiquement pas abordé, non parce qu’il est trop compliqué ou inconnu de l’auteur mais parce que l’usage de tels outils est en général très nuisible à la qualité du résultat obtenu, pour des raisons dont le détail est donné en italique au paragraphe 4.2. Les calques et masques ont un usage autre, pour faire des photomontages ou des trucages que j’ai parfois appelé « bidouillages », sujet que je ne traite pas ici. Utilisons-les pour ce pour quoi ils ont été conçus et sont utiles !

 

            En général, les termes désignant les traitements sont ceux communément utilisés dans Photoshop®, en tout cas la très ancienne version que j’utilise, ou encore dans GIMP2® (logiciel gratuit mais qui n’était pas directement disponible sur MAC à une date récente ; d’après l’ « Aide en ligne » de GIMP2, il serait possible d’installer ce logiciel sur MAC à l’aide de FINK ou encore DARWINORTS).

 

            1.Déchargement des photos.

 

            1.1.Transfert proprement dit.

 

            Je fais ici abstraction de la solution qui consiste à imprimer ou faire tirer directement les photos à partir de la carte mémoire utilisée par le boîtier. Cette opération peut se faire dans le commerce ou, si l’on dispose d’une imprimante, en reliant directement le boîtier à celle-ci par un câble généralement fourni. Si l’on ne veut pas faire plus, on en est exactement au même stade qu’avec la photo couleur en argentique, avec en moins la conservation de négatifs. Il n’y a alors pas lieu de s’étendre (et il peut s’agir d’une bonne solution pour celui qui débute et doit déjà son prendre son boîtier en main…). Le sujet traité ici est autre. Il s’agit de s’approprier effectivement les photos numériques fournies par le boîtier et d’en faire des choses intéressantes.

 

Même s’il en existe maintenant d’une grande capacité, une carte mémoire n’est pas un support de stockage. D’une part, elle ne permet en général pas toutes les opérations qu’un ordinateur peut faire avec un disque dur normal. En outre, le prix du stockage sur un tel support est élevé et sa conservation dans le temps assez aléatoire (la conservation dans le temps de ce type de support est rarement précisée et reste peu connue, la technologie évolue et certains supports seront périmés, donc difficilement lisibles dans quelques années ; par exemple, on constate d’ores et déjà que les ordinateurs portables de dernière génération ne peuvent plus lire directement les cartes CF, Compact Flash, qui étaient la référence il y a peu et qui sont toujours utilisées par des boîtiers de haut de gamme en vente actuellement…).

 

            Il convient donc de transférer régulièrement les photos sur une mémoire de masse (en général disque dur interne ou externe) de l’ordinateur. Pour procéder à cette opération, il existe deux catégories de solutions :

 

            -soit transfert des photos à l’aide d’un cordon liant directement l’ordinateur au boîtier (en général câble USB) ; c’est, apparemment, la plus simple ; le constructeur du boîtier fournit tout : mode d’emploi, logiciels permettant le transfert, la gestion et certains traitements des photos ;

 

            -soit lecture sur l’ordinateur de la carte mémoire, directement si celui-ci comporte un lecteur ad hoc ou par le biais d’un petit lecteur amovible se connectant à l’aide d’un câble USB, puis transfert sur un disque dur ; dans ce dernier cas, il est possible soit de transférer directement les fichiers de la carte mémoire par simple copie, soit d’utiliser un logiciel qui fait cela de manière supposée intelligente, en assurant des fonctions de gestion, voire de traitement.

 

            Personnellement, je n’utilise et ne conseille que le transfert par copie directe pour une raison simple. Tous les logiciels évoluent très vite et il n’est absolument pas garanti qu’ils pourront récupérer et traiter dans cinq ans les photos qu’ils ont prises en compte aujourd’hui. La pérennité de vos photos n’est donc pas totalement assurée par les divers logiciels de gestion de ceux-ci… J’ai déjà personnellement perdu quelques-unes de mes premières photos numériques d’Islande (2001), pourtant sauvegardées, à cause de changements dans les standards de certains supports informatiques (CDRom notamment). J’ai également perdu deux bases de données structurées à l’aide d’un logiciel pourtant très répandu sur le marché : celui-ci est devenu payant et bien trop cher vis-à-vis de l’intérêt des bases en question… A condition d’effectuer les sauvegardes correctement et régulièrement, le transfert par copie simple est donc le plus susceptible d’assurer la pérennité des photos. En outre, il est bien évident que si dans quelques années, après avoir utilisé un boîtier de marque X, vous en achetez un de marque Y, vous n’aurez plus les mêmes logiciels et vous risquez d’aboutir à une situation complexe, sinon insoluble, surtout quand vous changerez en plus d’ordinateur…

 

            Pour réaliser le transfert que je préconise, il faut s’assurer que l’ordinateur possède bien un lecteur pour le type de carte mémoire que le boîtier utilise. Si tel n’est pas le cas, il suffit d’acheter, à peu de frais, un petit lecteur adapté et qui se connecte sur une prise USB de l’ordinateur.

 

            En outre, j’a entendu dire que certains logiciels perfectionnés (trop !) effaceraient d’office les photos de la carte mémoire une fois le transfert réalisé. Ceci est bien sûr extrêmement dangereux et il vaut mieux perdre un tout petit peu de temps à effacer la carte mémoire soi-même uniquement quand on s’est assuré que le transfert a été correctement réalisé (et éventuellement après sauvegarde)

 

            1.2.Stockage et tri des photos transférées.

 

            Dans la lignée de ce que j’ai écrit précédemment, je n’utilise et ne recommande que la copie pure et simple des photos dans des répertoires de l’ordinateur, sans utiliser de logiciel adapté, qui paraît plus séduisant mais dont la pérennité n’est pas toujours assurée. Avec un PC sous Windows®, le logiciel qui s’impose est l’Explorateur Windows® appelé « Explorer » dans certaines versions (Vista®, ne pas confondre avec Internet Explorer®). Il existe des logiciels similaires sur MAC.

 

            Quand on utilise ce genre de logiciel, ne pas oublier que l’on peut avoir en même temps des imagettes, ce qui aide bien à s’y retrouver. Si elles n’apparaissent pas immédiatement, aller voir du côté de la fonction « Affichage » du logiciel.

 

            Il n’est en général pas utile de conserver des années des photos floues, trop sombres, trop claires, toutes de travers ou pleines de défauts (encore qu’on puisse espérer les redresser ou corriger, voir ci-après…), etc. Il est donc utile de commencer par un tri en passant toutes les photos en revue et en supprimant toutes celles que l’on ne souhaite pas garder. Cela se fait très bien avec les logiciels évoqués ci-dessus, en utilisant ce qu’on appelle la visionneuse. Par contre, il est déconseillé de faire ce tri en cours de séance photo (ou même après), à l’aide de l’affichage sur l’écran LCD du boîtier. En effet, d’une part cela épuise inconsidérément les batteries, et d’autre part, il est très difficile de juger de la qualité d’une photo sur l’écran LCD, du flou en particulier, même en agrandissant l’image. Le meilleur moment pour trier les photos se situe juste après la copie des photos sur l’ordinateur.

 

            Pour ceux qui font beaucoup de photo, il y a là un choix à faire. Quand, comme c’est le cas notamment en photo animalière, on a de longues rafales sur le même sujet, certains préfèrent ne sélectionner qu’une photo et détruire les autres. Personnellement, je préfère garder tout ce qui est raisonnablement correct car l’expérience m’a montré qu’il m’arrive de réutiliser des photos que je n’avais pas jugées comme les meilleures au départ… mais c’est encombrant ! Donc à chacun de choisir.

 

            Il ne faut pas oublier non plus que quand on supprime une photo sur l’ordinateur, on la met dans la « Corbeille » mais qu’elle n’est pas détruite… et continue donc toujours à encombrer le disque dur. Ne pas oublier de vider la « Corbeille » régulièrement !

 

            1.3.Structuration des répertoires recevant les photos.

 

            Tout dépend du nombre de photos qu’on aura à gérer… et il sera toujours possible de restructurer vers une structure plus complexe quand on aura du mal à dominer le (trop) grand nombre de photos qu’on a réalisées… Donc commencer par une structure simple. Un seul répertoire intitulé « Photo » peut servir pour celui qui démarre. A l’inverse, on peut avoir des structures très complexes quand on a beaucoup de photos à gérer. Ci-dessous la structure d’une petite partie de mes répertoires dans lesquels je stocke mes photos. Je n’y suis arrivé qu’au bout d’un nombre d’années important et elle s’enrichit et évolue en permanence.

 

            Plusieurs précisions :

            -beaucoup de rubriques comportent de nombreux sous-répertoires qui ne sont pas présentés ; c’est ainsi que « Photo », « Photos 2009 » et « Photos 2010 » présentent des structures complexes ;

            -on notera surtout que j’ai un répertoire variable qui s’appelle actuellement « Déchargement photos 2011», dans lequel je crée un sous-répertoire à chaque séance de photo ; c’est dans ce sous-répertoire que je décharge mes photos brutes avant de les trier, titrer et archiver (voir ci-après) ; une fois ces tâches achevées et les photos en sécurité, je supprime le sous-répertoire correspondant ;

            -si l’on veut dater les titres de répertoire comme je le fais dans « Déchargement Photos 2011 », il est recommandé de mettre la date en chiffres sous la forme an,mois,jour, par exemple 20110418 pour le 18 avril 2011 ; c’est la seule solution pour que les répertoires se classent dans l’ordre chronologique.

 

            1.4.Précautions à prendre.

 

            J’ai hérité de mes parents d’une caisse de photos dont certaines remontent au début du XXème siècle. Quel rapport avec la photo numérique me direz-vous ! Il est en fait fondamental. Si vous prenez des photos, en dehors même d’un éventuel côté artistique, c’est que vous voulez fixer sur un support des images fugaces de personnes, de lieux, d’évènements ou autres qui vous ont marqués. J’apprécie ces photos qui m’ont été léguées par les générations précédentes… à condition qu’elles soient dans un état à peu près correct et de savoir un tout petit peu ce qu’elles représentent. Il y a parmi elles de nombreuses photos pour lesquelles j’ignore totalement quels sont les personnages photographiés et plus personne ne pourra me renseigner. Quel intérêt ?

 

            Je signale au passage que scanner ou rephotographier de telles photos puis les améliorer avec les méthodes que j’indique ci-après produit souvent des résultats étonnamment bons.

 

            La photo numérique actuelle n’est pas différente. Si vous faites des photos, c’est certainement que vous avez l’intention de les conserver comme de conserver la mémoire de ce qu’elles représentent. Peut-être pas des siècles mais au moins des années ou des décennies. Le problème est rigoureusement le même et plutôt plus complexe techniquement que pour les photos argentiques sur les tirages desquelles il suffisait d’écrire le sujet et la date. C’est un point d’autant plus crucial qu’une photo numérique ne coûtant rien à prendre, tout le monde a tendance à les multiplier inconsidérément…

 

            1.4.1Titrer les photos.

 

            Il est donc utile de mettre un titre sur toutes les photos que l’on conserve. C’est un travail ingrat ! Mais si vous ne voulez même pas prendre le temps de faire cela, c’est probablement que vous ne prendrez probablement jamais le temps de les regarder non plus... Et puis, il y a des astuces pour aller plus vite, surtout si l’on n’a pas trop l’habitude de taper sur un clavier d’ordinateur…

 

            Je recommande de mettre un nom explicite dans le nom du fichier de chaque photo. Si vous ne donnez un nom qu’à un répertoire, ça peut marcher un moment mais un jour ou l’autre vous aurez dupliqué ou déplacé des photos et vous ne saurez plus d’où elles viennent… Le mieux est de conserver le numéro d’ordre donné par l’appareil photo et de mettre à la suite un petit texte abrégé mais explicite qui indique ce qu’il y a sur la photo.

 

            Par exemple, pour la photo d’un chat pris à Saint-André (Pyrénées-Orientales) en octobre 2009, j’ai remplacé le titre du fichier « IMG_6060 » par « IMG_6060chatStAndréoctobre2009 ». Pour cela, dans l’Explorateur Windows®, j’ai sélectionné le cliché, cliqué à droite puis dans le menu déroulant qui est apparu, sur « Renommer », j’ai positionné le curseur à la fin du titre « IMG_6060 » puis tapé mon texte et fait « Enter ». Une astuce ! Comme j’avais une dizaine de photos de ce charmant animal, pour la première que j’ai renommée, avant de faire « Enter », j’ai sélectionné la partie du texte que je venais de taper : « chatStAndréoctobre2009 » puis fais « Ctrl C » (raccourci de « Copier ». Ensuite, pour tous mes autres chats, au lieu de retaper ce texte un peu long, j’ai fait « Ctrl V » (raccourci de « Coller »).

 

            Il est également possible de titrer les photos en rentrant un titre dans les « données EXIF » (ou « métadonnées » qui est le nom technique correct). C’est plus long, plus compliqué et moins accessible, donc à réserver à des cas très particuliers.

 

            Il existe une solution alternative quand on n’a pas trop de photos à conserver. Elle consiste, après suppression des photos loupées ou qu’on ne souhaite pas garder, à imprimer l’équivalent de ce qu’on appelait des « planches contacts » avec la photo en argentique. Il s’agit de planches comportant un nombre important d’imagettes des photos conservées avec leur nom de fichier et éventuellement d’autres informations (date, etc.). De nombreux logiciels fournis par les constructeurs de boîtiers ou autres sont disponibles pour ce genre d’opération. On peut ainsi caser de 4x8=32 jusqu’à 5x10=50 imagettes par planche. Si l’on prend beaucoup de photos, cela risque cependant de faire beaucoup de papier à classer et gérer. Personnellement, j’avais commencé ainsi mais ai dû renoncer devant le volume peu gérable… mais tout le monde ne fait pas comme moi de la photo animalière avec des rafales de photos qui conduisent à un volume impressionnant de données.

 

            1.4.2.Sauvegarder les photos.

 

            Il y a une chose à faire et une à ne surtout pas faire !

 

            1.4.2.1.Ne jamais travailler sur une photo originale.

 

            Si vous travaillez une photo pour l’améliorer, c’est qu’elle vous plaît et que vous pensez en faire quelque chose. Un jour ou l’autre, vous aurez progressé ou vous aurez simplement l’idée d’un autre usage de cette photo, donc vous souhaiterez repartir de l’original. Il est donc absolument impératif de ne pas écraser l’original et de sauvegarder la photo travaillée sous un autre nom. Donc dans le logiciel de traitement, ne pas faire « Enregistrer » mais « Enregistrer sous » et changer un peu le nom (par exemple en mettant tout simplement un numéro d’ordre à la suite.

 

            1.4.2.2.Procéder régulièrement à des sauvegardes.

 

            Le jour où votre disque dur se « plantera » sans crier gare (chose qui se produit beaucoup plus souvent qu’on ne croit !), vous aurez perdu d’un coup toutes vos photos… si vous ne les avez pas copiées ailleurs.

 

            Il est donc essentiel de copier les photos régulièrement sur un autre ou d’autres supports. C’est ce qu’on appelle une copie de sauvegarde. Un disque dur externe est une bonne solution. Utiliser des CDRom ou des DVD peut aussi convenir… mais la pérennité de ce genre de support n’est pas vraiment assurée (voir ci-dessus ce qui est arrivé à quelques-unes de mes premières photos numériques d’Islande). Bon, quand vous aurez tout perdu, il existe toujours des logiciels (parfois gratuits) et des entreprises (pas gratuites du tout) qui sont censés avoir pour tâche de récupérer les données perdues. Ne rêvez pas, ça prend beaucoup de temps pour un résultat aléatoire. (Une astuce peu recommandable mais pouvant servir à d’autres ! Je signale ici que j’ai pu récupérer des photos stockées sur des CDRom et devenues totalement illisibles sur mes ordinateurs actuels… en réactivant mon vieil ordinateur de 2001 sous Windows 98SE® et son vieux lecteur de CD qui avait créé les CDRom en question, puis en transférant les données redécouvertes sur une clé USB. Seul un fichier d’une photo est resté rétif… mais comme je l’avais à la fois en format .bmp et .jpg, je n’ai rien perdu…).

 

            En un mot, aucun support n’est sûr et il n’y a aucune garantie de pérennité des supports dans le temps. Il est donc absolument essentiel d’avoir au moins deux exemplaires des fichiers auxquels on tient et de relire les deux de temps à autre. Sinon, c’est le jour où le support principal flanchera pour une raison quelconque qu’on s’apercevra que l’autre n’était déjà plus lisible. Ceci reste vrai même avec des formats et des supports qui paraissent aussi fiables que le jpeg et les CDRom. Quant aux fichiers auxquels on ne tient pas… pourquoi les garder ?

 

            La « vrai sauvegarde professionnelle » utilise deux disques durs. En effet, il s’agit alors d’écraser les données du disque de sauvegarde avec celles, à jour, du disque de l’ordinateur. Un « plantage » en cours de sauvegarde peut donc détruire à la fois les données de l’ordinateur et celles du disque de sauvegarde. On sauvegarde donc alternativement sur l’un ou l’autre des deux disques durs de façon à conserver toujours la sauvegarde la plus récente.

 

            Il existe également des sauvegardes avec des « disques miroirs », l’information étant conservée en permanence sur deux disques ayant le même contenu et qui sont donc censés ne pas tomber en panne simultanément (« censés » car s’il y a  un incendie par exemple, c’est une autre histoire… D’où l’utilisation de sauvegardes déportées, c’est-à-dire stockées en d’autres lieux… ce qui peut par ailleurs poser le problème de la sécurité des données confidentielles. Etc. ). Bien entendu, chaque amélioration bien réfléchie est utile mais complique souvent le travail et crée de nouvelles failles dans le système... Avant toute solution complexe, il faut donc d’abord savoir vis-à-vis de quoi on veut se prémunir, panne matérielle, destruction globale comme un incendie, piratage, sabotage, etc. et les solutions vis-à-vis de ces divers risques sont souvent contradictoires ; par exemple, multiplier les copies préserve des pannes matérielles mais facilite le piratage.

 

            On s’éloigne ici de notre modeste photo numérique d’amateur et je n’irai donc pas plus loin. Avoir des copies de sauvegarde régulières sur un autre disque dur est déjà une bonne sécurité qui suffit à la plupart des photographes !

 

            1.4.2.3.Les fichiers originaux contiennent des données que l’on nomme « métadonnées » ou « données EXIF » qui indiquent tous les éléments de prise de vue, vitesse, sensibilité, boîtier, etc. ; il est important de conserver celles-ci, donc de vérifier que leur transfert initial se fait bien ; sous l’Explorateur Windows® (baptisé « Explorer » dans Vista®), il suffit de pointer le fichier, de cliquer à droite et d’aller dans Propriétés/Détails pour les trouver ; ces données permettent de savoir quels paramètres de prise de vue on a utilisés à un moment donné, soit pour pouvoir recommencer lors d’une nouvelle prise de vues quelque chose qu’on trouvait bien, soit au contraire pour ne pas recommencer deux fois une même erreur… (attention, dans l’exemple ci-dessous, mon logiciel Photoshop® a un bug : au niveau de la valeur de l’ « Ouverture », il est marqué « Focale », ce qui est évidemment erroné…)

 

Quand on fait des traitements et même parfois des copies (par exemple en utilisant « Enregistrer sous » avec certains logiciels), il arrive que ces données soient détruites; par exemple, mon vieux Photoshop® les détruit même si je n’ai fait qu’un petit traitement sur la luminosité alors que GIMP2® ne les détruit pas. Il est important de savoir ce qu’il en est réellement et d’essayer de les préserver autant que faire se peut.

 

           

 

           

           

 

1.4.3. Achever le travail en effaçant les données de la carte mémoire et en vidant la corbeille de l’ordinateur.

 

Il est bien évident que si vous avez transféré les données à partir du boîtier, ça n’est pas pour continuer à encombrer celui-ci et ses cartes mémoires. L’effacement se fait grâce à une fonction du boîtier à trouver dans la notice de celui-ci. En principe, cela peut se faire également à partir de l’ordinateur mais peut être très dangereux dans certains cas pour la carte mémoire.

 

De même, si vous ne videz pas la « Corbeille » de l’ordinateur de temps à autre, le disque dur de ce dernier reste aussi encombré que si vous n’aviez pas supprimé les photos mises à la corbeille.

 

1.5.En résumé.

 

            Une bonne séquence pour le déchargement des photos peut être :

-décharger les photos en les stockant dans un répertoire ad hoc ;

-faire le tri et supprimer tout ce qui ne mérite pas d’être gardé, renommer les autres en conservant le numéro donné par le boîtier ;

            -effacer la carte mémoire ;

            -vider la « Corbeille » de l’ordinateur de temps à autre ;

            -sauvegarder de temps à autre les photos que l’on a stockées (traitées et non traitées) ;

            -quand on traite une photo, la sauvegarder sous un nom différent de façon à préserver l’original.

 

            Ca peut paraître un peu lourd mais on s’y retrouve largement au bout de quelques années quand on a des photos dans tous les coins et de tous les coins…

 

 

2.Qu’est-ce qu’une photo numérique ?

 

2.1.Description.

 

La présentation ci-dessous est la description de ce qu’est une image quand elle est arrivée dans le logiciel de traitement qui va s’occuper d’elle. Elle ne correspond pas à ce qui est dans le boîtier, qui est beaucoup plus compliqué et elle a déjà subi des traitements complexes qui faussent le contenu informatif (par exemple, le dématriçage crée une quantité importante d’information qui n’existait pas lors de la prise de vue, il s’agit bien entendu là d’une énormité en termes de traitement de l’information mais tous les boîtiers dotés d’une matrice de Bayer en sont réduits là et c’est l’immense majorité, voire la totalité, des matériels disponibles sur le marché au moment où j’écris… ; je développerai par ailleurs dans un autre texte ces aspects du prétraitement des prises de vues par le boîtier et ce qui concerne le RAW et le jpeg).

 

            Une image peut se représenter comme une répartition  régulière de carrés élémentaires dans un rectangle qui est l’image entière. Ces carrés sont appelés « pixels », de l’anglais Picture element. Par exemple, les images fournies par mon boîtier actuel comportent 4752x3158 pixels soit 15.006.816 pixels, nombre que l’on arrondit pour dire « 15 millions de pixels » ou encore « 15 méga-pixels ». Dans l’ordinateur, avec mes images transmises en jpeg, chaque pixel se voit attribué 3 valeurs correspondant aux trois couleurs fondamentales, le bleu, le vert et le rouge. Chacune de ces valeurs est codée sur un octet, soit 256 valeurs de 0 à 255.

 

            Ces trois valeurs combinées et restituées sur l’écran de l’ordinateur ou, en fin de traitement, sur l’imprimante, correspondent à une nuance de couleur. Voici par exemple ci-dessous un exemple d’un tout petit morceau d’une image numérique :

 

 

Chaque carré correspond à un pixel. Sa couleur étant codée sur 3x256 valeurs, il peut y avoir 2563 couleurs ce qui correspond à plus de 16 millions de valeurs différentes. La valeur codée par 3 zéros correspond au noir pur et celle codée 3 fois 255 au blanc pur. On notera au passage qu’il est admis que l’œil humain peut séparer normalement 15.000 nuances. Cela fait mille fois moins que les possibilités évoquées ci-dessus et donc bien moins que ce qu’est censé nous présenter notre écran ou notre imprimante, pour autant qu’ils aient eux-mêmes des caractéristiques techniques leur permettant de séparer celles-ci.[1] A l’inverse, on remarquera au passage que les 15.000 nuances que notre œil peut séparer pourraient se coder sur 9 bits alors que le jpeg utilisé en photo numérique code sur 3x8=24 bits et le RAW « décrypté dans l’ordinateur » en principe sur 3x14=42 bits. Si l’usage du RAW est intéressant pour obtenir de « belles photos », ça n’est en tout cas pas parce qu’il peut séparer plus de nuances.

 

Le RAW et le jpeg seront examinés par ailleurs mais il faut déjà préciser que le RAW actuel (juin 2011) n’a rien de « RAW » car il n’est pas du tout une représentation brute de ce qui est mesuré par le capteur du boîtier. Il a existé des « RAW » véritables (ou presque) avec les images des satellites d’observation de la Terre et il va peut-être y en avoir de nouveau avec les boîtiers SIGMA® dotés de capteurs FOVEON. Il n’y en a en aucun cas avec les actuels boîtiers du commerce dotés d’une matrice de BAYER car cela ne présenterait aucun intérêt avec un tel capteur.

 

 

2.2.Les bêtes noires du photographe numérique. Bruit, effets de bord, balance des blancs.

 

2.2.1.Bruit.

 

Le bruit est matérialisé par un aspect moucheté de la photo, au moins dans certaines zones. Par définition, le bruit est quelque chose qu’on ne peut pas modéliser et qu’on ne peut connaître que de façon statistique. Il n’y a donc pas de logiciel ou de technique miracle qui puisse éviter le bruit, contrairement à ce qu’on pourrait croire en lisant les notices de certains constructeurs. Bien entendu, il faut essayer de se placer dans des conditions de prise de vue qui évitent autant que possible d’avoir du bruit (voir à ce sujet ce que j’ai écrit par ailleurs sur les conditions de prise de vue). Mais le problème de nombreux traitements est qu’en améliorant la photo, ils « améliorent » donc renforcent aussi le bruit. C’est l’une des raisons pour lesquelles j’indique un ordre dans les traitements : celui-ci vise à limiter l’apparition du bruit ou à choisir des paramètres qui le minimisent.

 

Nous verrons au fil des traitements ce qu’il y a lieu de faire pour lutter contre son apparition, voire pour le supprimer, car s’il n’existe pas de processus physique absolu qui puisse l’éliminer, il existe des techniques qui permettent de le faire disparaître en partie ou en totalité dans les zones où il est gênant.

 

 

 

 

2.2.2.Bruit dans les images argentiques scannées.

 

La numérisation de certaines photos argentiques conduit parfois à des images extrêmement bruitées. Ceci se comprend très bien avec un tout petit peu de théorie et l’on pourra se reporter à la partie en italique à ce sujet. Disons qu’au niveau élémentaire, ce bruit provient du fait qu’on a scanné la photo argentique (négatif ou diapo, peu importe) à un pas trop fin vis-à-vis de la sensibilité de la pellicule qui avait été employée. En un mot, on peut se permettre un pas plus fin avec des photos prises en 50 ISO qu’en 400 ISO. Mieux vaut donc renumériser la photo avec un pas plus grossier que se battre avec des problèmes de bruit sans fin… dont on ne viendrait très probablement pas à bout. On pourra toujours dire qu’on perd ainsi en résolution… mais c’était bien le choix initial du photographe car les pellicules argentiques perdaient en finesse avec l’augmentation de la sensibilité (« grain » de la photo plus gros).

 

2.2.3.Les effets de bord.

 

Les effets de bord ne sont pas une propriété intrinsèque de la photo. Ils n’apparaissent que lors de traitements inadéquates. Il faut cependant en être bien conscient pour les éviter et les traquer dès qu’ils apparaissent. Il y a au moins deux causes qui peuvent générer des effets de bord :

-le traitement trop brutal d’un sujet aux limites bien tranchées ; c’est par exemple le cas avec des renforcements de netteté intempestifs ;

-le travail sur des calques qui ont détouré un élément de la photo ; si l’on n’y prend pas garde, des horreurs peuvent parfois apparaître sur les bords de la zone délimitée par le calque lorsqu’on colle le calque travaillé sur la photo.

 

Ci-après, un exemple d’effet de bord créé par un renforcement de netteté beaucoup trop violent. On notera au passage qu’un bruit devient également visible alors que l’image était en fait fort peu bruitée.

 

 

2.2.4.La balance des blancs.

 

Des dominantes colorées peuvent apparaître sur la photo si le réglage de la balance des blancs sur le boîtier n’est pas en concordance avec l’éclairage de la scène photographiée. Il peut s’agir d’une erreur ou d’un choix. Toujours est-il que si cette dominante n’a pas un résultat esthétique volontaire… ou involontaire, il faut y remédier. Nous verrons dans la suite comment.

 

L’espace des couleurs ou espace des radiométries.

 

            Chaque pixel d’une photo numérique peut donc être représenté par un point dans un espace à trois dimensions, chacun des axes correspondant à une des couleurs fondamentales. La photo en entier va alors être représentée par un nuage de points dans cet espace que je nommerai dans la suite espace des couleurs. Je souligne au passage que si vous avez, comme moi, la curiosité de rechercher « espace des couleurs » sur Internet, vous trouverez surtout « espace couleur » ou « espace colorimétrique » avec d’innombrables développements complexes sur la colorimétrie, le gamma, le gamute et bien d’autres. L’espace auquel je fais référence est celui qui a été utilisé en traitement d’images sous le nom d’ « espace des radiométries » par les spécialistes du traitement des images spatiales ou aériennes numériques, discipline qui s’est développée à partir du lancement du premier satellite d’observation de la Terre en 1972 (il n’y a pas vraiment de différence avec celui de la colorimétrie, sauf que la présentation de ce dernier fait souvent des raccourcis impressionnants qui la rende peu compréhensible par le profane). En photographie numérique, il y a tellement de traitements plus ou moins cachés entre la mesure radiométrique faite par le capteur de l’appareil et l’image telle qu’elle arrive dans l’ordinateur que je n’ose employer le mot « radiométrie ». Je m’en tiens donc au vocable  « espace des couleurs ». Je précise que je ne parlerai pas ici des notions abordées par la colorimétrie, au premier rang desquelles celle de gamma, car cela n’apporterait absolument rien aux développements que je vais faire. Par contre, assimiler les développements que je fais devrait aider grandement à la compréhension des notions de gamma, d’espace colorimétrique  ou de ce qui se passe avec le RAW et le jpeg pour ceux qui ne l’ont pas déjà compris par ailleurs. Je compte bien aborder toutes ces notions dans d’autres parties du document dont ceci n’est qu’une petite partie… mais ne mélangeons pas les genres ! Toutes ces notions sont simples si on les aborde une par une et dans l’ordre, sans les mélanger. Elles deviennent par contre affreusement compliquées quand on veut les appréhender toutes à la fois.

 

            L’espace des couleurs dont je parle est donc strictement l’espace des pixels de la photo telle qu’elle est prise en compte par l’ordinateur pour subir les traitements d’image qui vont nous permettre de l’améliorer. Ce mode de représentation est absolument essentiel pour appréhender ce que font les traitements que nous allons examiner dans la suite. Je pense que nous verrons clairement que la foule des photographes numériques qui traitent des photos passe une partie importante de son temps à travailler dans l’espace des couleurs sans le savoir, comme Mr Jourdain faisait de la prose…

 

            Schéma représentant un pixel dans l’espace des couleurs :

 

 

            J’ai reporté ici les axes dans l’ordre dans lequel je les pratiquais dans les années 1980. Il s’agit en fait de l’ordre des longueurs d’onde croissantes car pour les premiers satellites d’observation de la Terre, on avait plutôt des longueurs d’onde correspondant au vert, au rouge et à l’infrarouge proche (à cause de la diffusion atmosphérique particulièrement forte dans le bleu). J’ai constaté sur Internet que certains prennent un ordre différent. Le tout est de le savoir et de ne pas tout mélanger ![2]

 

            Toute la photo est donc représentée par un nuage de points dans cet espace. Il faut cependant garder à l’esprit que les valeurs dans les trois couleurs vont de 0 à 255 (codage sur un octet) par valeurs entières. On peut aussi dire que dans cet espace, toute la photo tient dans un cube de 255 unités de côté (256 valeurs possibles), limites de celui-ci incluses. En mathématique, on parle d’une « représentation discrète ».

 

            Pour essayer de concrétiser un peu avec une notion que nous ne devrons jamais perdre de vue dans la suite, un pixel totalement blanc aura comme valeurs dans les trois couleurs 255,255,255 et sera au sommet du cube opposé à l’origine, alors qu’un pixel totalement noir aura pour valeurs 0,0,0 et sera à l’origine des axes.

 

            Tout ce que j’appelle dans la suite « traitements dans l’espace des couleurs » consiste donc à déplacer en bloc le nuage de point, à le triturer dans tous les sens, afin que la photo qui lui correspond soit la plus plaisante possible. J’y reviendrai mais on comprend tout de suite que si l’on fait subir au nuage des traitements qui vont essayer de lui faire dépasser les limites du cube en question, on amènera ainsi des pixels vers les sommets de celui-ci, c’est-à-dire qu’on créera des pixels blancs purs ou noirs purs, c’est-à-dire qu’apparaîtront dans la photo des zones complètement saturées en blanc (« cramées ») ou en noir. Ce n’est en général pas ce qu’on recherche !

 

            On comprend également que pour travailler sur ce nuage de points, on va utiliser diverses fonctions qui font des calculs sur les trois valeurs qui définissent les pixels. Comme on ne travaille que par valeurs entières, on  aura automatiquement des arrondis à la valeur la plus proche. Lorsqu’on multiplie les traitements, on multiplie aussi les arrondis et on risque à la longue de dégrader l’image. C’est une raison pour bien choisir ses traitements de façon à obtenir le résultat recherché en un minimum d’opérations. C’est d’autant plus vrai que de toute façon, on travaille toujours sur le même nuage de points avec des fonctions qui paraissent différentes mais ont toutes un peu la même philosophie. On est un peu en train de « malaxer un chewing-gum à l’intérieur d’un cube ». On peut toujours malaxer deux heures, on aura toujours le même chewing-gum mais il sera de plus en plus informe, si l’on me permet cette image tout à fait réaliste mais peu digne d’un document sur cette discipline très sérieuse qu’est le traitement d’images…

 

            Pixels composites.

 

            La notion de « pixel composite » est essentielle pour comprendre assez facilement ce qui se passe dans de nombreux cas de traitement, soit en bien si on les gère bien, soit en mal si on ne leur prête pas assez d’attention. Cela ne me dispensera pas de donner en outre un autre niveau d’explication mathématique faisant appel à des théories comme celle des distributions, mais devrait permettre au plus grand nombre de lecteurs d’entrer un peu plus dans les détails.

 

            Imaginons que nous voulons photographier un sujet qui serait une simple feuille de papier séparée en deux zones de couleurs différentes. Les pixels qui concernent uniquement une des plages auront des valeurs toutes les mêmes (en supposant le capteur photographique parfait… ça n’est pas le sujet ici d’imaginer autre chose). Par contre, sur la limite, des pixels auront une valeur intermédiaire parce qu’ils concernent un peu de chacune des deux zones, ce sont des « pixels composites ». On comprend bien dès maintenant que l’aspect de la photo au cours des traitements changera suivant qu’on préserve une limite étroite avec peu de pixels composites ou au contraire qu’on étale ceux-ci de part et d’autre de la limite. Il n’y a pas de vérité mathématique absolu : suivant la photo, on pourra préférer avoir une photo plus lissée avec beaucoup de pixels composites ou au contraire plus dure avec des limites nettes. Ci-dessous, une simulation des pixels composites tels qu’ils pourraient apparaître en photographiant une feuille de papier séparée en deux parties rouge et verte.

 

 

            L’espace géométrique.

 

            C’est tout simplement celui dans lequel nous voyons la photo. Il a deux dimensions, chaque pixel a deux coordonnées que l’on note bien évidemment X et Y si l’on éprouve le besoin de les désigner. Ces coordonnées prennent des valeurs discrètes (au sens mathématique de ce terme, elles ne peuvent pas prendre toutes les valeurs mais simplement des valeurs multiples de celle de la taille d’un pixel.

 

            On aura bien entendu à travailler dans cet espace pour modifier la géométrie de la photo.

 

            On verra dans la suite que d’autres traitements travaillent à la fois dans les deux espaces (ou si l’on veut, dans l’espace à 5 dimensions qui serait nécessaire pour décrire toute l’information de la photo, mais on n’utilise guère cette notion trop abstraite pour l’esprit humain : si l’on voit clairement un espace à deux dimensions, qu’on appréhende bien un espace à trois dimensions car nous vivons dans un tel espace, ce n’est plus le cas pour un espace à cinq dimensions).

 

            Le bruit.

 

            Le bruit apparaît sous forme de pixels ou groupes de pixels de couleurs variées là où l’on devrait avoir une plage uniforme. Voir illustration. Il a au moins  deux sources possibles: d’une part la diffusion de la lumière par l’atmosphère et les sujets photographiés et d’autre part l’électronique de prise de vues. La première cause de bruit est d’autant plus gênante que l’on a moins de lumière qui arrive sur le capteur photographique. Il ne faut pas perdre de vue qu’on aura moins de lumière si l’on prend une photo dans des conditions d’éclairage déficientes… mais aussi si la vitesse d’obturation est très rapide, ce qui ne laisse pas arriver beaucoup de photons jusqu’au capteur. De toute façon, avec les boîtiers modernes, on peut considérer que c’est la première cause de bruit qui est largement prépondérante quand une photo apparaît bruitée. Je ne parlerai donc que de lui (…et les méthodes visant à réduire ou à supprimer le bruit ne se préoccupent de toute façon pas de son origine ; par contre, il est essentiel de se préoccuper de son origine pour tenter de l’éviter lors de la prise de vue).

 

            La diffusion atmosphérique produit du bruit dû à la diffusion de la lumière par les atomes qui composent l’atmosphère. Sans rentrer dans des considérations de physique quantique qui apporteraient peu, on peut dire que si ce phénomène ne se produisait pas, le ciel serait noir au lieu d’être bleu, comme ont pu le constater les astronautes qui ont été sur la lune, dépourvue d’atmosphère. De même, si vous prenez une photo sans flash dans une pièce peu éclairée, intérieur de château ou d’église par exemple, la  lumière qui vous éclaire provient à la fois de la diffusion par l’atmosphère du lieu mais aussi et surtout des réflexions multiples sur les murs et objets environnants de la lumière qui arrive de l’extérieur par les rares fenêtres. C’est du reste abusivement que j’emploie le terme « réflexions », en toute rigueur, il faut parler de « rétrodiffusion », les murs ne se comportant pas comme des miroirs, et il faut aussi parler de l’absorption d’une partie de la lumière par ces éléments, ce qui peut créer également des biais sur les couleurs reçues par le capteur.

 

Mais surtout, il arrive peu de photons sur chaque élément du capteur photographique (particules de lumière quand on considère la lumière sous sa présentation corpusculaire et non ondulatoire). Ces photons ayant interagit avec beaucoup de choses, molécules de l’atmosphère, murs ou objets et arrivant en petit nombre et « en vrac » sur le capteur, on aura statistiquement une dérive variable au niveau de chaque pixel du capteur. En effet, s’il n’arrive que quelques photons sur un capteur, il n’y a statistiquement qu’une faible probabilité qu’ils arrivent dans les proportions dans lesquels ils sont pour composer une lumière blanche de forte intensité. D’où des points de couleur variée sur la photo, chaque pixel ayant reçu une proportion différente de photons de chaque couleur (correspondant à la longueur d’onde de chaque couleur). J’aborderai ce point à propos du RAW et du jpeg mais avec les boîtiers actuels dotés d’un matrice de Bayer, le « dématriçage » que réalise le boîtier avant de délivrer la photo n’arrange certainement pas les choses.

 

            Il est important de comprendre cela car cela influe fortement sur le bruitage, ou non, des prises de vues et aussi sur la correction de ce défaut. C’est ainsi que, si vous utilisez une sensibilité très élevée, par exemple 2000ISO, en intérieur sans flash, vous avez toutes les chances d’obtenir une photo très bruitée. Ca n’est pas une raison pour ne pas essayer si vous n’avez pas d’autre solution… Par contre, en extérieur, avec une lumière solaire vive, l’essentiel de la lumière qui parvient au capteur de votre boîtier provenant de l’éclairage direct du sujet par le soleil, le bruit sera proportionnellement beaucoup plus faible. Or contrairement à ce qui vient immédiatement à l’esprit, il peut être très utile de recourir à de très fortes sensibilités en plein soleil, notamment pour des sujets qui se déplacent très vite, véhicules en mouvement, photos de sport, animaux en mouvement.

 

            On peut ainsi avoir des résultats étonnants. Par exemple, quand on prend un oiseau en vol sur fond de ciel avec une grande vitesse et une forte sensibilité, l’oiseau lui-même pourra être très peu bruité alors que, paradoxalement, le ciel bleu le sera beaucoup plus à cause de la diffusion atmosphérique. Cela a des implications sur des modes de correction du bruit que j’expliquerai plus loin.

 

            Je donne l’interprétation que je fais de ce dernier point pour ce qu’elle vaut : elle ne pourrait être validée que par des calculs de physique statistique que je n’ai pas faits. En outre, il n’y a pas de doute que l’œil peut être plus sensible au bruit sur une grande surface à peu près unie comme le ciel que sur le sujet lui-même (encore que ce dernier étant en général plus foncé, le bruit devrait au contraire ressortir). Ce qui est sûr, c’est que ça marche dans certains cas et que visuellement, on arrive souvent à la situation que j’évoque ci-dessus.

 

            Cas de photos argentiques scannées.

 

            Qu’il s’agisse de négatifs ou de diapositives ne change rien à la problématique. Une photo argentique en couleur est composée de trois couches sensibles aux trois couleurs mais au lieu d’un découpage en pixels carrés (grossière approximation du numérique…), on a affaire à des grains répartis de manière aléatoire. Le scannage conduit quand à lui à des pixels carrés codés dans les trois couleurs. Il est bien évident que si la taille des pixels est petite par rapport à celle des grains de la photo initiale, chaque pixel ne va prendre de manière aléatoire qu’une information partielle sur les trois couleurs correspondantes suivant qu’il « tombe » sur un ou plusieurs grains d’une ou plusieurs couleurs. On obtiendra donc une image avec des pixels aux valeurs variables et aléatoires qui pourront donner une impression de bonne photo si l’on regarde la globalité du résultat mais qui va conduire à une mosaïque affreuse de pixels de couleurs variées quand on plonge dans le détail… On fait un peu du Seurat…

 

            Il est bien évident que le meilleur remède est de prendre un pas de numérisation plus grand… ce qui veut simplement dire de ne pas faire donner par la photo initiale plus d’information qu’elle n’en contenait. La mesure par le scanneur sur un pixel réalise alors l’intégration (au sens mathématique du terme) des valeurs dans les trois couleurs sur les grains qui tombent en totalité ou en partie dans le pixel en question. Il n’y a pas de formule miracle : le pas à choisir étant fonction de plusieurs paramètres dont le grain de la pellicule argentique qui a été utilisée, valeur dont on n’a pas connaissance, el mieux est de procéder par essais et erreurs jusqu’à avoir trouvé un pas qui convient.

 

            Si l’on dispose d’une photo numérisée et bruitée à cause d’un pas de numérisation trop petit sans avoir de quoi la reprendre, la situation est presque désespérée ! On peut néanmoins imaginer des traitements qui essayeront de sauver la situation. Cela va de celui que j’aborderai dans la suite, avec peu d’espoir dans ce cas, jusqu’à des filtres passe-bas ou des algorithmes analogues à ceux utilisés par le boîtier numérique dans le dématriçage des résultats fournis par la matrice de Bayer du capteur. Sur les filtres passe-bas, on se reportera au chapitre 7. ci-après. D’après le peu que j’ai pu en voir, les scannages faits dans le commerce, ayant été mis au point par des professionnels, évitent cet inconvénient, c’est la moindre des choses.

 

            Le problème est tout autre si les photos à numériser se sont « piquées » avec le temps (par exemple dans mon cas, petits points de poussière ou plus probablement de moisi sur des diapositives prises il y a longtemps en pays tropical). L’aspect est très différent et s’apparente, en pire, aux taches de capteur des réflex numériques. En pire car les taches plus petites sont aussi beaucoup plus nombreuses. Si l’on tient vraiment à la photo, il n’y a plus qu’à « retrousser ses manches » et faire des retouches comme je les décris au chapitre 6. Dans les cas les plus favorables, on peut espérer s’en sortir avec certaines fonctions comme « Anti-parasites » de GIMP2®, avec un risque non négligeable de dégradation de l’image.

 

            Les effets de bord.

 

            Les effets de bord viennent essentiellement de la mauvaise gestion des pixels composites ou de la création intempestive de pixels composites par des processus inadéquates. Ils peuvent également se produire quand on sélectionne une zone et qu’on utilise ensuite une fonction de calcul qui recalcule les valeurs des pixels à partir de ceux qui  environnent celui-ci. On conçoit en effet qu’arrivé sur les bords, l’algorithme qui recalcule les valeurs affectées au pixel n’a plus d’éléments sur les pixels suivants qui sont hors champ. Tout dépend alors à la fois de la manière dont l’algorithme a été conçu et de ce qu’on trouvera ensuite dans la photo au-delà de la limite de la sélection. A noter que certaines fonctions de certains logiciels, GIMP2® par exemple, permettent justement un choix entre plusieurs modes de calcul des pixels de bord

 

3.Première phase de traitement de la photo : recadrage, redressement, balance des blancs.

 

            Il ne faut jamais perdre de vue qu’une bonne photo, c’est normalement celle qui sort du boîtier avec déjà le bon cadrage, la bonne luminosité, la bonne netteté et sur laquelle il n’y a rien à faire que cliquer sur la commande « Impression ». On aura en général une photo d’autant plus satisfaisante que le cliché original sera proche de ce que l’on veut obtenir et les traitements à faire plus légers… Mais puisqu’il existe des traitements, abordons-les donc.

 

La première opération de traitement d’une photo est de regarder son aspect général et de se faire une idée de ce qu’on veut en faire. Une des premières questions qui vient à l’esprit est de regarder si elle ne présente pas des défauts colorimétriques évidents et de l’organiser dans l’espace. Il y a (au minimum…) trois questions à se poser :

            La photo est-elle droite ou faut-il la redresser ? (il est particulièrement désagréable d’avoir une ligne d’horizon oblique ou des verticales qui partent d’un côté, sauf recherche d’un effet particulier, ce qui est une autre histoire).

            La balance des blancs est-elle correcte… ou, en termes moins techniques, n’y a-t-il pas des dominantes de couleurs intempestives ?

            Quel cadrage serait plaisant pour cette photo ?

 

            La première phase de traitement va en découler. Le meilleur ordre pour ces opérations est : redressement de la photo si nécessaire, puis recadrage et enfin balance des blancs si nécessaire. Pour la majorité des clichés, il ne devrait y avoir que la seule opération de recadrage. Avoir à procéder à l’une des deux autres ou aux deux augure mal de la qualité de la photo… Par contre, si l’on veut imprimer, le recadrage s’impose pratiquement tout le temps, le format des images n’étant en général pas proportionnel à la taille des papiers pour l’imprimante (sauf si l’on accepte une marge blanche variable sur le tirage…).

 

            Je souligne qu’en bonne théorie du traitement d’images, il ne faudrait pas commencer par ces traitements qui vont commencer à dégrader, légèrement mais prématurément, l’image. Seulement, on ne fait pas ici de la théorie mais de la photo ! Si l’on n’a pas corrigé les défauts en question et fait le cadrage préalablement, ça n’est pas sérieux de vouloir aller plus loin dans l’amélioration d’un cliché car on n’appréhenderait pas correctement sa globalité.

 

            3.1.Redressement du cliché.

 

            Il suffit de procéder à une rotation paramétrée en donnant un angle de rotation adapté. Le plus simple est d’estimer un premier angle, d’appliquer la rotation et de voir ce que ça donne. On en déduit une valeur affinée de l’angle à donner à la rotation. On annule alors la rotation précédente puis on applique une rotation avec le nouvel angle… et ainsi de suite jusqu’à obtenir un cliché correctement redressé. Il est souhaitable de disposer d’un logiciel qui autorise le rééchantillonnage « au plus proche voisin ». Par exemple GIMP2 le propose dans les paramètres de la rotation sous le nom « Outils/Outils de transformation/Rotation » puis « Type d’interpolation : Aucune »… S’il est disponible, il est absolument essentiel de remplir ce paramètre correctement et de ne surtout pas laisser le « cubique » (ou « bicubique ») qui est souvent le paramètre prédéterminé. Si l’on ne dispose pas d’un tel paramètre, la rotation est une opération qui dégrade fortement le cliché dans la mesure où les paramètres de « rééchantillonnage » ne sont pas maîtrisés (le rééchantillonnage est le calcul pixel par pixel des valeurs attribuées aux différents pixels de l’image transformée à partir de l’image initiale). Empiler des rotations revient alors à empiler des dégradations successives, Pour la question des « rééchantillonnages », j’explique les tenants et aboutissants au chapitre 8. dans la remise au format de l’image.

 

            A noter que certains logiciels, certaines versions de Photoshop® notamment, permettent à la fois de recadrer et d’effectuer la rotation en une seule fois sans avoir à donner une valeur chiffrée à l’angle mais « d’un coup de souris ». Cela n’enlève absolument rien au problème du rééchantillonnage mais peut toujours éviter les tâtonnements et les opérations multiples.

 

            3.2.Recadrage du cliché.

 

            Cela fait partie de la partie « artistique » du travail du photographe et non du côté technique. Néanmoins, il y a quelques petites contraintes techniques :

            -le mieux est de sélectionner la zone à conserver après recadrage puis d’utiliser la fonction recadrage ; ne pas créer de calque par copier/coller et s’assurer que le logiciel n’en crée pas automatiquement ; si des calques venaient à être créés à ce stade, les fusionner immédiatement car ils ne peuvent que nuire au reste du traitement en le compliquant ou le perturbant ;

-un paramètre doit être respecté, c’est le rapport hauteur/largeur qui doit correspondre à la surface que l’on veut imprimer ;

-il tombe sous le sens qu’on n’a en général pas intérêt à garder des zones toutes blanches (« cramées ») ou toutes noires… mais à condition qu’elles soient effectivement toutes blanches ou toutes noires et donc irrécupérables ; s’il y a des nuances qui n’apparaissent pas visuellement mais qui existent, un des grands rôles du traitement qui va suivre sera d’essayer de les sauver ; pour s’en assurer, on peut par exemple regarder l’histogramme de l’image et voir s’il y a des valeurs à 255 ou à 0, ou encore procéder avec la  pipette en pointant sur plusieurs points des zones en question, ou mieux en appliquant à titre de test la fonction « Luminosité/Contraste » avec excès, juste pour voir et bien entendu sans conserver le résultat ; la fonction « Courbes » est encore meilleure mais demande plus de doigté ; je ne m’étends pas plus là-dessus car tout cela fera l’objet d’une présentation détaillé dans le chapitre 4.; à noter que, quand on est un peu expérimenté, on peut très bien procéder aux traitements qui récupèrent ces zones avant de faire le recadrage, ce qui apporte un certain confort supplémentaire dans le choix de celui-ci ; voir au chapitre suivant ;

-à ce stade, il est fortement déconseillé de mettre l’image à la taille d’impression par une fonction du genre « Taille de l’image » ou « Taille d’impression » ou autre ; en effet, certains paramétrages de ces fonctions dégradent fortement et prématurément l’image alors qu’on peut au contraire jouer sur eux pour peaufiner le traitement à la fin de celui-ci (voir le chapitre 8. à ce sujet).

 

3.3.Correction d’une mauvaise balance des blancs.

 

Un défaut dans la balance des blancs apparaît sous forme de dominantes colorées. Le traitement qui correspond fait partie de ceux qui seront abordés au chapitre 4. Cependant, comme il s’agit d’un traitement de « récupération », il est plus à sa place ici. A noter également que, dans une certaine mesure, il permet de ne pas s’occuper du paramètre « Balance des blancs » sur le boîtier et de corriger sur l’image. Cela peut présenter plusieurs avantages :

-conserver un éclairage un peu amusant pour tester ce que ça donne ;

-ne pas mettre de balance des blancs sur le boîtier dans des cas où cela n’est pas possible pratiquement (un exemple que je pratique : macrophotos de minéraux sur statif en éclairage artificiel avec très forts grossissements, pour des tirages papier x40 à x100…) ;

-éviter d’oublier de remettre la balance des blancs après avoir travaillé en éclairage artificiel en repassant à l’éclairage naturel ;

-etc.

(personnellement, je ne touche jamais à la balance des blancs du boîtier mais cela n’engage que moi ! Ca m’évite juste de m’embêter… et comme je vais le  montrer, le résultat avec la méthode que je préconise est normalement meilleur).

 

Le rétablissement de la balance des blancs se fait très simplement à l’aide d’une action sur les histogrammes par couleur. Il s’agit d’un des « traitement dans l’espace des couleurs » qui seront détaillés au chapitre 4. Il suppose que la photo ne présente pas déjà des zones surexposées au point d’être toutes blanches sans dominante ; même dans ce cas, si ces zones sont limitées, on peut encore procéder à l’opération décrite ici sans espoir bien sûr de les récupérer. Elle est présentée ci-dessous sous forme d’une illustration :

 

Dans certaines versions de Photoshop® et dans GIMP2.6®, les histogrammes sont accessibles sous le nom de « Niveaux ».

 

 

            L’image ci-dessus est celle après rétablissement de la balance des blancs (pour voir ce qui a été fait, regarder les flèches vertes). La qualité du résultat obtenu peut par exemple être jugée par le côté blanc de la porte à gauche des personnages (autoportrait dans une glace déformante…) : ce côté présentait une dominante jaunâtre avant l’opération. Le rectangle vitré dans la porte de droite était déjà surexposé (et sans intérêt), il apparaissait sur la droite des histogrammes sous forme d’un petit pic ; il n’en a pas été tenu compte.

 

            Anticipant sur le chapitre suivant, si l’on rétablit la balance des blancs à l’aide des histogrammes, tant qu’on y est, il est judicieux de regarder si quelques corrections sur l’histogramme général n’améliorent pas le cliché. D’une part il s’agit d’un traitement approprié et qui vient là à sa place. D’autre part, il est possible que le rétablissement de la balance des blancs éclaircisse trop le cliché et qu’une bonne dynamique soit rétablie en jouant ensuite sur l’histogramme général.

 

            La justification technique de ce mode  de correction de la balance des blancs est élémentaire à partir du moment où l’on a assimilé comment fonctionne l’espace des couleurs et ce que sont les histogrammes par couleur.

 

            Il faut considérer que, sur une photo « normalement constituée », les pixels les plus clairs doivent être blancs ou en tout cas non colorés (d’un gris neutre). C’est bien ce que l’on recherche quand on dit « rétablir la balance des blancs » et c’est ce qui satisfait notre œil et surtout notre cerveau qui, en dehors de tout procédé photographique, arrivent à « voir blanche » une feuille de papier blanc éclairée par une lumière électrique à dominante jaune qui en fait une feuille jaune sans que nous en soyons conscients... Quelle que soit la lumière, électrique courante, lampe 3000°K, néon, solaire, etc., on espère ramener la plage la plus lumineuse à un blanc ou, à tout le moins, à un gris neutre. C’est même le cas avec des éclairages colorés comme les lampes à vapeur de sodium… sauf, encore une fois, si l’on recherche un effet particulier. Si l’on veut conserver une couleur jaune pour avoir une ambiance d’intérieur sur une photo prise avec la lumière électrique courante, il n’est plus question de balance des blancs et cela n’a plus rien à voir avec ce que j’explique ici.

 

            Il faut bien être conscient que, curieusement, pour un document que l’on va imprimer, « rétablir la balance des blancs », c’est obtenir une couleur aussi neutre (grise ou blanche) que celle de la feuille (blanche) sur laquelle on va imprimer. Après, l’éclairage sous lequel on regardera le document peut faire que le blanc soit jaune (cas le plus fréquent avec les éclairages électriques traditionnels).

 

            Les pixels les plus clairs sont, dans les trois couleurs, ceux qui sont représentés le plus à droite de l’histogramme (et donc les plus proches de 255, le blanc pur étant réservé à des pixels de valeur 255,255,255). Quand on fait la manipulation que j’ai indiquée précédemment, on ramène tout simplement ces pixels les plus clairs à 255 dans les trois couleurs, donc on les amène à la valeur « blanc ». Pour notre œil, on a donc rétabli la balance des blancs : les pixels les plus clairs sont redevenus blancs comme la feuille sur laquelle ils seront imprimés (et qui ne recevra pas d’encre à leur niveau…). Tout le reste de l’image suit. Non seulement cette manipulation est  très simple, mais elle est en principe plus précise que d’utiliser soit les fonctions du boîtier concernant la balance des blancs, soit celles du logiciel de traitement d’image, par exemple avec des températures de couleur. En effet, elle permet de rétablir la balance des blancs très précisément et en conformité avec sa définition, même avec des éclairages composites ou des lampes n’éclairant pas avec une répartition conforme à la courbe du corps noir, alors que dans ces cas, très courants pour ne pas dire généraux, la notion de température de couleur n’a plus aucune signification physique !

 

            Par contre, ce procédé ne marche plus dans trois cas :

            -celui d’une photo très surexposée pour laquelle on a déjà un nombre important de pixels à 256,256,256 (mais est-ce bien raisonnable de vouloir sauver à tout prix une photo à la fois complètement surexposée et présentant des dérives de couleur ? Si l’on y tient vraiment, on peut toujours travailler « à vue de nez » sur les histogrammes pour essayer d’obtenir les résultats évoqués ci-dessus ; dans le cas où les plages saturées sont bien séparées du reste de la photo, on peut même parfois réaliser l’opération que je recommande pour rétablir la balance des blancs sur le reste des histogrammes ; on ne sauvera pas ce qui est saturé car c’est impossible, mais on pourra encore obtenir une très honnête balance des blancs pour le reste de la photo ; c’est même ce que j’ai fait sur la photo présentée en exemple ci-dessus : le rectangle blanc de la porte à droite derrière les personnages est saturé mais n’empêche pas le rétablissement de la balance des blancs pour le reste ; on voit clairement sur les histogrammes qu’il y a des pixels à 255 dans les trois couleurs)

            -celui d’une photo présentant une dominante colorée du fait du sujet, mais il n’est plus question de balance des blancs dans ce cas, illustré par l’exemple ci-après.

 

 

Ci-dessus, une photo et son histogramme dans le bleu. On voit que celui-ci va de 0 à 255. Un histogramme est en fait constitué de 256 barres verticales dont la hauteur est proportionnelle au nombre de pixels de la photo qui prennent la valeur correspondante dans le bleu. Ici, l’histogramme du bleu présente un pic vers la valeur 180, ce qui correspond bien évidemment aux pixels de  toute la zone d’eau, très bleue.

-je n’évoque ici que pour mémoire le troisième cas : celui d’un éclairage tellement hétérogène que les diverses zones de la photo ont des dominantes différentes. J’y ai personnellement été confronté dans le cas de macrophotos à très fort grossissement sur statif avec des éclairages variés (à la fois fibres optiques et lumière du jour se combinant). Il est bien évident que dans ce cas, c’est le mode opératoire qui est à revoir et que le traitement d’image n’y peut pas grand chose.

 

Pour terminer cette anticipation sur les histogrammes, il faut évoquer ici ce qu’est l’histogramme général et l’interprétation qui peut en être faite vis-à-vis du contenu de la photo.

 

 

            Dans Photoshop® (jusqu’à CS6 en tout cas), l’histogramme général de la fonction « Niveaux », c’est-à-dire sur les trois couleurs à la fois est obtenu d’une manière inhabituelle. Il s’agit d’une superposition des valeurs de chaque pixel dans les trois couleurs codée entre 0 et 255.Il ne s’agit plus d’un histogramme au sens mathématique du terme (et c’est bien dommage !). L’interprétation en devient très ardue, parfois inutilisable… En effet, si un  véritable histogramme était une courbe bimodale (au sens des probabilités, ce qui est un cas banal en photographie si l’on a par exemple une surface de terre un peu sombre et dans les tons bruns et une surface de mer ou de ciel à dominante bleue), combinés avec les pics par couleur, ces 2 « modes » peuvent conduire à avoir jusqu’à 6 pics sur ce pseudo histogramme et il devient quasiment impossible de s’y retrouver !

 

            La photo ci-dessus d’un faucon crécerelle à contrejour montre trois pics bien marqués dans l’histogramme. Les trois pics correspondent à l’immense majorité des pixels : ceux du ciel. Celui de gauche correspond au pic dans le rouge (le plus sombre : il n’y a guère de rouge dans le ciel…), celui du milieu au vert et celui de gauche, donc le plus  lumineux, au bleu (normal, le ciel est bleu, même s’il ne s’agit pas d’un bleu « pur »…). Il n’y a pas de « modes » au sens des probabilités bien qu’on croit visuellement avoir affaire à une courbe trimodale (fausse…).

 

            Comme indiqué, l’histogramme ci-dessus a été réalisé avec Photoshop®. Ci-dessous, la même opération avec GIMP2® ne donne pas du tout le même résultat. En effet, le graphique que présente ce logiciel est un véritable histogramme calculé sur la « luminosité », valeur liée à chaque  pixel et calculée d’une manière parfaitement définie en fonction des valeurs dans les trois canaux.

 

            A noter qu’il en va de même avec les « informations » que peuvent afficher les boîtiers photos à propos d’un cliché donné. Je n’ai pas eu le loisir de vérifier pour tous les constructeurs mais la notice du CANON® EOS 7D indique par exemple très clairement que le calcul de l’histogramme général est fait sur la luminosité, comme pour GIMP2®. Il en va de même avec les boîtiers NIKON® et SONY® auxquels j’ai eu accès.

 

 

            4.Deuxième phase de traitement. Travail dans l’espace des couleurs.

 

            Dans les logiciels de traitement d’image, il existe de nombreuses fonctions travaillant uniquement dans l’espace des couleurs. Leur nom peut varier quelque peu d’un logiciel à l’autre. Ce sont par exemple : Niveaux (ou histogrammes, évoqués précédemment), Courbes, Balance des couleurs, Luminosité, Contraste, Teinte, Saturation, etc. Il existe également parmi les trucs de photographes d’autres procédures consistant à superposer des calques  plus ou moins traités en jouant sur l’opacité (je ne parle pas ici de détourer telle ou telle zone du cliché pour la traiter séparément mais simplement de recombiner des calques d’une même photo après avoir fait subir à certains d’entre eux divers traitements du même type que ceux que je présente ici). Il existe enfin des méthodes professionnelles d’analyse automatique ou semi-automatique d’image dans l’espace des couleurs bien maîtrisées depuis plusieurs décennies (mises au point à la fin des années 70 et au début des années 80 pour les besoins du traitement des images de satellite).

 

            Le sujet n’est donc pas de se perdre dans cette jungle ni de tester tout et n’importe quoi. Il est préférable de se donner une « politique » de traitement qui évite de créer des redondances ou de dégrader les images par la multiplication des traitements ou par des traitements inadéquates.

 

            J’élimine d’emblée le travail sur les calques superposés pour trois raisons ;

-d’une part, il est bien difficile de le rattacher à des algorithmes théoriques qui tiennent debout ; en un mot, il s’agit surtout de travail par essai et erreur mais sans vraiment savoir où l’on va, du bidouillage dangereux donc ;

-d’autre part, il est plus difficile à maîtriser car il demande de gérer des structures complexes qui ne se justifient pas ;

-mais surtout, en multipliant les calques, on multiplie aussi les dégradations de l’image initiale, ce qui va à l’encontre du but recherché ; en un mot, il convient de choisir des solutions simples, maîtrisées et qui dégradent moins.

Je ne décris pas ce genre de traitement, non parce que je traite ici d’une manière élémentaire de faire du traitement de photo, alors que le travail par calques serait supposé plus complexe. La raison n’est pas non plus que je ne le maitrise pas : on pourra s’en assurer en réfléchissant à la manière dont j’ai dû procéder pour fabriquer certaines illustrations du présent texte et surtout le Power Point® qui va avec : j’ai pour cela utilisé très abondamment les calques dans un domaine pour lequel ils ont justement été conçus. La seule raison est que je considère cette manière de travailler comme nuisible.

 

Pour ce qui est de détourer des zones et de les traiter séparément, je ne traite pas ce sujet ici. Je l’évoquerai très rapidement au niveau du chapitre 6. sur les retouches.

 

            Dans un autre registre, j’élimine les logiciels d’analyse car ils ne sont pas, à ma connaissance, disponibles sur le marché des logiciels de traitement des photos. Les ayant beaucoup pratiqués, je pense qu’ils pourraient apporter quelque chose d’intéressant dans des cas assez variés même s’ils sont un peu plus complexes que les traitements simples que je vais décrire maintenant.

 

            Il reste donc les autres qui sont déjà bien nombreux. On peut les séparer en deux catégories :

-ceux qui sont très facilement susceptibles de saturer en blanc ou en noir certaines zones qui ne l’étaient pas ;

-ceux qui, bien utilisés, ne risque pas trop ce genre de chose.

Les deux sont utiles et à utiliser suivant les cas de figure. Parmi les traitements cités ci-dessus, dans la première catégorie, on trouve : Luminosité, Contraste, Teinte, Saturation et dans la deuxième catégorie : Niveaux (histogramme), Courbes, Balance des couleurs. Parmi eux, j’en retiens quelques-uns qui me semblent assez bien couvrir la palette de ce que peut nécessiter le traitement habituel d’une photo (et qui sont ceux que j’utilise habituellement, même si je me rabats parfois sur d’autres).

 

            Je ne reparle de la fonction Histogramme (Niveaux) que pour mémoire, en ayant déjà abondamment parlé à la fin du chapitre précédent. Au niveau du traitement de la photo, elle présente surtout l’avantage de montrer comment la photo est structurée… à condition d’en avoir déjà une certaine habitude. On peut par exemple voir si certaines zones sont saturées en blanc (« cramées ») ou en noir. Si certaines zones sont saturées, l’histogramme « bute » sur la droite ou sur la gauche (voire des deux côtés, mais c’est beaucoup moins probable : on n’imagine guère une photo à la fois surexposée et sous-exposée, sauf traitement particulièrement loupé !). Le travail sur l’histogramme, outre le rétablissement de la balance des blancs détaillé précédemment, permet certaines améliorations des photos, assez limitées mais qui ont au moins le mérite de ne pas accroître les zones saturées, sauf manipulation vraiment maladroite… A noter qu’on peut vérifier cela dès la prise de la photo surl’écran LCD de la plupart des boîtiers.

 

            4.1.Photos ne présentant pas de zones saturées en blanc ou en noir.

 

            Un tandem de traitements qui permet des améliorations appréciables est alors Luminosité/Contraste… en faisant bien attention de ne pas créer des zones saturées là où il n’y en avait pas.

 

            Un petit traitement complémentaire en jouant sur Saturation peut apporter un petit plus (mais attention au risque d’amplification, voire de création, de bruit).

 

            4.2.Photos présentant des zones qui semblent saturées en blanc ou en noir.

 

Si la saturation est dans les tons sombres, il y a peu d’espoir de pouvoir « repêcher » la photo. En effet, même si elles existent, la mise en évidence de nuances dans les tons sombres risque fort de créer immédiatement un bruit insupportable là où celui-ci préexistait mais n’était pas visible.

 

Photos qui présentent des zones qui semblent saturées en blanc. Si elles le sont vraiment, avec des pixels à 256,256,256, elles le resteront. Par contre, si les pixels ont des valeurs un peu inférieures, on peut espérer récupérer des « nuances cachées ». De même, cela pourra se produire à la périphérie des zones complètement saturées, permettant ainsi une amélioration parfois considérable. Par contre, Luminosité/Contraste risque fort d’aggraver la situation sauf peut-être dans le cas d’une photo surexposée dont on va diminuer la luminosité.

 

La fonction Courbes est alors parfaitement adaptée. Elle demande certes un peu de doigté quand on l’utilise sur l’ensemble des trois couleurs. Quant aux options par couleur je les déconseille carrément car, à moins d’être un virtuose, on risque fort que la photo n’en ressorte pas indemne… Il faut comprendre cette fonction comme jouant de l’accordéon avec les plages d’intensité lumineuse des pixels. Par exemple, si l’on donne un « coup d’accordéon » pour étaler les zones les plus claires, on pourra espérer voir apparaître des nuances dans des zones qui paraissaient « cramées ». Bien entendu, cela sera probablement au détriment du reste de la photo qui risque fort de perdre des nuances.

 

Globalement, dans de nombreux cas, on récupérera à la sortie de la fonction Courbes une image qui a retrouvé ses nuances dans les zones qui n’en présentaient pas mais qui semble devenue plus terne ou affadie. Cela est normal ! En effet, ayant fait ressortir visuellement certaines zones sans nuances par un « coup d’accordéon » sur l’ensemble, il est normal qu’on en affadisse d’autres par contrecoup. Cela n’est pas grave dans la mesure où l’utilisation d’une, voire deux autres fonctions pourront redonner de la dynamique au cliché. Le plus simple est d’essayer avec Saturation qui donne souvent de bons résultats en la matière. Si cela ne suffit pas, on peut aussi essayer avec Contraste de Luminosité/Contraste… avec toute la légèreté nécessaire pour ne pas « re-cramer » des zones qui avaient livré leurs nuances… Dans certains cas, on n’arrivera pas à s’en sortir… mais je n’ai pas trouvé à ce jour de logiciel intégrant la fonction Miracles qui permettrait de faire une bonne photo avec un truc loupé !!!... (celui qui la commercialise le premier est sûr de faire immédiatement fortune !).

 

 

 

 

            Le traitement de cette mouette avec les fonctions que j’indique, en commençant par Courbes ne permet pas de résultat miraculeux mais une amélioration nette du corps de la mouette qui était un peu trop saturé dans l’original.

 

            Il faut bien être conscient qu’outre la nécessité du doigté requis, on n’aura jamais une photo plus contrastée tout en ayant sorti de l’information de zones qui paraissaient saturées. Il faut choisir entre les deux.

 

            Il serait faux de croire que des astuces telles que séparer un calque du fond et un de la mouette pourrait améliorer la photo. Outre que de tels traitements étaient prohibés dans les concours où elle a été présentée, on serait sûr de créer des effets de bord désastreux et/ou de perdre la finesse du flou du bout des ailes qui marque le mouvement dans les photos d’oiseaux en vol. Ou alors, il faudrait traiter pixel par pixel, sans trop savoir où l’on va, ce qui, avec les boîtiers modernes de 10 à 20 mégapixels et plus, devient un travail colossal pour un résultat aléatoire (et prohibé dans les concours de photos de nature…)

 

            Exemple quand il n’y a pas de zones saturées :

 

 

 

            En résumé, j’utilise personnellement suivant les situations deux séries de traitements :

            -soit Luminosité/Contraste puis un éventuel petit coup de Saturation ;

            -soit Courbes puis Saturation et éventuellement un peu de Contraste, voire de Luminosité.

 

            Bien entendu, si l’on ne s’en sort pas de cette manière, on peut toujours essayer toutes les autres méthodes une par une… mais il y a fort à parier qu’on n’obtiendra pas grand-chose de mieux car elles sont toutes plus ou moins redondantes et leur principe est toujours à peu près le même.

 

            Par contre, il faut souligner que si l’on n’arrive pas à avoir une photo ayant assez de caractère avec les fonctions précédentes et notamment le Contraste, les Améliorations de Netteté (qui ont divers noms suivants les logiciels mais font partie des Filtres) pourront parfois remédier à ce défaut. Elles sont examinées au chapitre suivant et ne doivent être faites qu’après les traitements précédents. Il ne s’agit que d’une convergence visuelle avec des traitements dont la philosophie n’est pas la même, mais le but étant visuel, on ne voit pas pourquoi on s’en priverait…

 

            Il faut faire attention aux termes qu’on emploie ! En toute rigueur, j’emploie le vocable « espace des couleurs » pour ne pas embrouiller (ou effrayer !!!)  le lecteur, mais je parle ici de traitements dans ce que les spécialistes d’analyse d’image nomment « espace des radiométries », c’est-à-dire qui correspond aux mesures faites par l’appareil photo. L’espace des couleurs lui ressemble beaucoup… mais il a été défini par les spécialistes de colorimétrie. Comme son nom l’indique, la colorimétrie s’occupe des couleurs qui sont elles-mêmes définies à partir de la perception de notre œil. Elle s’occupe donc à la fois de la mesure de ces couleurs mais aussi de la manière de les restituer de manière satisfaisante pour le cerveau humain. Je parle en réalité ici plutôt de l’espace des radiométries car je ne m’intéresse qu’aux mesures initiales (ayant déjà, il est vrai, subi des corrections de nature colorimétriques, correction de gamma par exemple, nous n’avons pas accès, malheureusement, aux mesures brutes réalisées par nos boîtiers…, sauf peut-être à travers certains RAW, et encore…). Peu importe car les raisonnements sur les traitements restent à peu près les mêmes pour ceux que j’examine.

 

            La philosophie du traitement dans l’espace des radiométries paraît assez évidente. Il s’agit de « triturer » le nuage de points qui représente le cliché dans tous les sens… et en général avec des fonctions linéaires. Celles-ci ne doivent pas inverser la hiérarchie de l’intensité des couleurs, même si certaines d’entre elles, comme Courbes, le peuvent parfaitement.

 

            Un bon nombre de ces fonctions qui ont été imaginées pour les besoins du traitement des images des satellites d’observation de la Terre correspondent à des changements de repère dans l’espace des radiométries, en remplaçant les axes de référence, Bleu, Vert, Rouge par d’autres, avec une transformation linéaire mais ne s’occupant en général pas d’un éventuel aspect orthonormé. C’est notamment le cas de Luminosité, Couleurs, Saturation et de bien d’autres. Niveaux, ou Histogramme, permet quand à lui une transformation linéaire le long des axes initiaux avec en outre (curseur central) une double transformation de part et d’autre du curseur central, l’une « en compression » et l’autre « en dilatation » (dont je n’ai pas les moyens de vérifier si elles sont linéaires également ou non). Evidemment, dans le mode de calcul retenu par Photoshop®, on ne sait plus trop ce qu’on fai,t mais intuitivement, on a l’impression d’arriver au même résultat qu’avec une programmation d’histogramme correcte… Le passage dans l’espace IHS, qui est juste un changement d’axes, est un grand classique du traitement d’images depuis plusieurs décennies IHS : Intensity, Hue, Saturation.

 

            L’utilisation de calques, aussi généralisée qu’abusive, mérite qu’on s’attarde un peu dessus pour comprendre les problèmes qu’elle pose. Je parle ici de calques de toute l’image sans détourer telle ou telle partie. Détourer et traiter séparément certaines parties de la photo peut se faire, mais il s’agit là d’un autre sujet que je n’aborderai pas ici, sauf très rapidement au chapitre sur les retouches (et je ne sais pas si je le traiterai in extenso dans l’ensemble des développements que je compte mettre par écrit car je m’interroge sur le classement de tels traitements de photomontage dans la photo, même s’il a pu m’arriver personnellement d’en réaliser et d’en présenter…). Ce dont je parle est donc simplement le traitement qui consiste à dupliquer un (des) calques de l’image totale et à les combiner entre eux après divers traitement sur l’un ou sur l’autre. Pour des raisons de clarté de l’exposé, je m’en tiendrai à l’exemple simple suivant : on prend une photo qu’on duplique, on applique une fonction Saturation sur le calque de duplication, puis on combine la photo originale avec son calque traité en jouant sur les modes de combinaison et l’opacité. Il est bien évident que quand on a commencé dans cette voie, on peut aller beaucoup plus loin et faire 36 calques, l’un que l’on sature, l’autre que l’on contraste, le troisième que l’on traite avec la fonction Courbes, etc. Je pense qu’il apparaîtra clairement dans la suite que plus on crée de calques, plus on obtient un résultat final dégradé…

 

            Prenons donc cet exemple simple de la photo qu’on combine à un calque qu’on a traité avec Saturation. On a donc été amené à séparer deux nuages de points dans l’espace des couleurs puis à les additionner (au sens le plus banal du terme : au final, on additionne pour chaque pixel les valeurs dans les trois couleurs, en pondérant éventuellement ce qu’on additionne à l’aide de la fonction Opacité). Traiter avec la fonction Saturation revient à modifier linéairement tout le nuage de pixels du calque le long d’un des axes d’un nouveau système d’axes de l’espace des  couleurs (le référentiel IHS, Intensity/Hue/Saturation). Pour un pixel donné, quand on reviendra à la photo, revenant dans les axes Bleu/Vert/Rouge, on aura donc modifié linéairement les trois valeurs correspondant au pixel en question. Recombinant avec l’image initiale, on aura donc toujours une transformation linéaire sur les trois axes, la même pour tous les pixels de la photo. On comprend tout de suite qu’on n’aura rien fait de plus qu’un traitement linéaire dans l’espace IHS… ce qui est proposé dans le logiciel de traitement sans avoir à passer par des calques !

 

Par contre, le résultat n’est pas du tout équivalent au niveau qualité ! Si l’on ne veut pas « exploser » les valeurs des pixels en de nombreux endroits, c’est-à-dire obtenir des zones totalement saturées, il faut rester en-dessous de 255 presque partout. En prenant l’hypothèse simpliste d’une égale répartition des valeurs entre l’image et le calque, il faudrait des valeurs ne dépassant pas 128 pour chacun, ce qui reviendrait à provoquer des imprécisions liées aux arrondis deux fois plus importantes que par un traitement global sur l’image avec la même fonction. En particulier, le traitement dans l’espace IHS, qui implique des transformations linéaires, impliquera des incertitudes liées aux arrondis deux fois plus importantes puisque sur des valeurs codées sur 7 bits et non plus 8. Pire encore, l’hypothèse simpliste de l’équirépartition est aussi la moins défavorable : si l’on imagine que la contribution à l’image finale du calque traité avec Saturation est plus faible que celle de l’image de départ, ce qui risque d’arriver si l’on fait une forte Saturation puis qu’on applique une faible Opacité pour compenser, cela veut dire que les valeurs provenant de ce calque vont encaisser des incertitudes liées aux arrondis proportionnellement bien plus fortes puisque d’un bit sur une valeur représentée par quelques bits.

 

L’implication de ce genre de traitement sur une photo numérique n’est pas du tout anodine. En considérant que le pouvoir séparateur de l’œil humain est de 15.000 couleurs, (chiffre présenté précédemment), cela veut dire que l’œil humain peut, en gros, discriminer des couleurs codées sur 5 ou 6 bits. En s’en tenant au raisonnement donné précédemment, les incertitudes liées aux arrondis induites par un traitement à l’aide de 4 calques pourront descendre la qualité du codage de la photo de 8 à 6 bits, ou encore moins pour peu que la dynamique du cliché (plage entre la valeur la plus faible et la plus forte trouvée dans le cliché) ne soit pas très étendue. On arrive ainsi très vite au seuil de dégradation visuelle de la photo.

 

Bien entendu, le raisonnement précédent est indicatif mais donne des ordres de grandeur raisonnables. Pendant le même temps, les traitements de l’image seule par les mêmes fonctions ne produiront pas du tout des dégradations du même niveau. De toute façon, comme nous travaillons dans un espace discret assez réduit (nombre fini de valeurs possibles), chaque traitement provoque des arrondis et ceux-ci combinés ne peuvent que conduire à une dégradation de l’image. Il est donc clair que la réduction à deux ou maximum trois opérations que je préconise, et sans calque, est de nature à maintenir une qualité du cliché optimale sinon parfaite. Dans un RAW codé sur 14 bits, le problème n’est pas tout à fait de même nature… pourvu qu’on ait des logiciels qui travaillent réellement sur 14 bits… Je traiterai par ailleurs cette question du RAW, de la signification, ou non, de 14 bits pour coder une image et de ce qui en découle sur la qualité des résultats. On peut quand même dire en un mot qu’avec 8 bits, on a déjà créé de l’information qui n’était pas arrivée au capteur, moins discriminant que cela (mais déjà beaucoup plus que l’œil humain…). Avec 14bits, on a créé encore beaucoup plus d’information inexistante sur le cliché… mais une justification peut être justement de ne pas dégrader l’information de départ lorsqu’on fait des traitements inadéquats comme ceux décrits précédemment… Quel beau cercle vicieux ! Il vaut certainement mieux apprendre à travailler proprement dès le départ…

 

            Par ailleurs, même si le but du traitement des images des satellites d’observation de la Terre n’est pas le même que celui du photographe aux prises avec une photo à améliorer, je souligne qu’il existait également dès les années 80 toute une panoplie qui permettait, dans l’espace des couleurs appelé à juste titre « espace des radiométries » dans ce cas, de traiter les images de façon beaucoup plus riche. Il s’agit essentiellement de logiciels d’extraction d’information parmi lesquels :

            -analyse en composantes principales qui permet, à partir du nuage de points dans l’espace des couleurs de déterminer les composantes principales de ce nuage, c’est-à-dire de déterminer les axes principaux de l’ellipsoïde d’inertie de ce nuage, donc de travailler ensuite sur des axes beaucoup plus pertinents que ceux prédéterminés arbitrairement pour toutes les photos comme « Saturation » ou « Luminosité » ;

            -analyse d’image permettant de séparer celle-ci en zones homogènes avec des algorithmes comme l’Analyse factorielle ou les Nuées Dynamiques.

 

            Je n’ai aucune prétention à connaître tous les logiciels du marché et j’en connais même fort peu et mal. Je serais donc intéressé à savoir s’il existe des logiciels de traitement d’image, grands publics, gratuits ou payants, qui prennent en compte ce genre de fonction. Mais comme l’algorithmique des logiciels disponibles n’est en général pas exposée et qu’il faut en grande partie la rétablir par soi-même comme je le fais parfois ici, secret industriel oblige, peut-être que certaines de ces méthodes ou d’autres sont présentes dans les logiciels que nous utilisons sans que cela saute aux yeux.

 

            5.Troisième phase de traitement. Traitements sur le voisinage des pixels, netteté, flou.

           

            Cette partie concerne les traitements souvent répertoriés sous la rubrique « Filtres » dans les logiciels de traitement d’image. Ils recalculent les valeurs d’un pixel à partir des valeurs de celui-ci et de celle des pixels environnants. Bien que produisant des résultats très différents suivant les paramétrages, ils reposent tous sur la même philosophie et sont donc regroupés ici comme dans beaucoup de logiciels.

 

            Le but du présent texte n’étant pas de dire comment produire des « effets spéciaux » mais simplement de traiter une photo pour arriver à une qualité optimale pour l’imprimer (ou la projeter) ensuite, je ne présenterai que deux traitements : les améliorations de netteté d’une part et l’élimination du bruit autant que faire se peut d’autre part.

 

            5.1.Amélioration de netteté.

 

            Suivant les logiciels, cette fonction peut s’appeler « Amélioration de Netteté », « Renforcer la netteté », « Renforcement/Accentuation », etc. Elle a en général trois paramètres, gain, rayon et seuil, ou encore rayon, quantité et seuil. Deux paramètres sont particulièrement importants, gain et seuil.

 

            Le paramètre « gain » ou encore « quantité », sert à choisir l’intensité du renforcement de netteté que l’on souhaite. Il est donc essentiel et différent pour chaque cliché. Il est inséparable du paramètre « seuil » qui, comme son nom l’indique, offre le choix d’un seuil minimum à partir duquel le renforcement se fait. Plus le seuil est important et plus il faudra de décalage avec son environnement pour que le pixel soit renforcé. A gain égal, plus le seuil croit et moins le renforcement du sujet est fort… mais aussi moins le bruit est renforcé. Le seuil est donc un paramètre essentiel qui permet d’éviter trop de bruit dans le cliché. Pour renforcer une photo bruitée, il peut être bien meilleur de prendre un gain plus important avec un seuil plus élevé qu’un gain faible avec un seuil petit ou nul. A l’inverse, si la photo n’est pas bruitée, il peut être judicieux de mettre le seuil à 0.

 

            Jouer sur « rayon », qui consiste à décider sur quelle taille d’environnement on va recalculer les valeurs du pixel, est assez limité sous peine de produire des dérives inattendues si le rayon est trop grand (effets de bords intempestifs notamment).

 

            De toute façon, le mieux est d’agir sur les paramètres en jugeant visuellement du résultat grâce aux aperçus que les logiciels fournissent toujours d’une manière ou d’une autre. Ci-après, un exemple de deux améliorations de la netteté avec juste un changement du seuil. On voit que le seuil de 3 réduit le gain de netteté mais évite d’accentuer trop le bruit. Le fait que le bleu de l’image numéro 3. (seuil 0) paraisse plus intense que celui de l’image 4. est anormal et est sans doute lié à un défaut du logiciel utilisé car l’image de départ était rigoureusement la même (à moins qu’il s’explique uniquement par un effet d’optique dû aux différences dans le bruit, ce qui paraît peu plausible).

 

 

            On pourrait croire en regardant l’illustration ci-dessus que les paramètres de l’accentuation jouent sur l’intensité de la couleur, la version n°3 (à gauche) paraissant plus foncée que la n°4 (à droite). Il n’en est rien ! Il s’agit là d’un pur effet d’optique, le ciel n’étant pas uni mais présentant un dégradé de la droite vers la gauche. La partie la plus foncée de l’image de gauche est en contact avec la plus claire de l’image de droite, ce qui fait paraître celle-ci plus claire. On voit là toute l’ineptie que pourrait avoir l’application d’un ciel uni sous prétexte qu’il le paraît et qu’il est bleu alors qu’en fait, même en paraissant très uni, il comporte des variations dont nous ne sommes pas forcément conscients mais qui contribuent à l’esthétique du document.

           

5.2.Flou et suppression d’une partie du bruit.

 

            Il existe une grande quantité de filtres dont l’application aboutit à des flous divers et variés. Comme il ne s’agit ici que de préparer une photo, je m’en tiendrai à la réduction du bruit ce qui se fait assez bien avec le flou gaussien. Il existe également d’autres fonctions proposées par les divers logiciels. Pour n’en citer qu’une, GIMP2 propose dans sa rubrique Filtre/Amélioration un anti-parasites qui est assez intéressant dans certains cas (bruit consistant en des pixels isolés très lumineux par exemple).

 

            Tout le problème de la réduction du bruit est de ne supprimer celui-ci que dans les zones où il est gênant. Si l’on applique le flou gaussien à tout le cliché, on mettra du flou sur tout le sujet, ce qui n’est pas toujours souhaitable et peut tourner au désastre… Une bonne solution pour éviter ce défaut est de sélectionner les zones dans lesquelles on veut supprimer le bruit. Cette sélection se fait avec tous les outils ad hoc de la boîte à outils mais peut être un travail ingrat. Si le sujet que l’on entend conserver très net est bruité, aucune solution n’est vraiment satisfaisante et mieux vaut abandonner ou éventuellement reprendre le traitement depuis le départ si l’on estime que ce sont certains traitements qui ont aggravé le bruit.

 

            Dans l’exemple ci-après, le ciel a été détouré grâce à la baguette magique, ce qui était très facile dans ce cas très particulier. La zone sélectionnée a ensuite été réduite de 5 pixels pour éviter un fâcheux effet de bord sur le corps et les ailes de la buse. Ensuite, un flou gaussien d’un rayon de 5 pixels a été appliqué. Bien entendu, s’il y avait eu du bruit sur le corps et les ailes de la buse, on aurait été complètement démuni (et de fait, il y en a un peu mais moins que dans le ciel : les traitements qui ont été appliqués précédemment au cliché, dont le renforcement de netteté, ont été soignés pour éviter d’amplifier celui-ci).

 

 

            La réduction de la zone sélectionnée a deux raisons qui se suffisent chacune à elle-même :

            -la plus générale est de ne pas créer un effet de bord fâcheux sur le bord du sujet photographié ; réduire de 5 pixels pour mettre un flou gaussien de 5 pixels est un minimum et il vaut mieux se méfier et contrôler visuellement ensuite qu’on n’a pas créé d’effet de bord ; conserver du bruit non corrigé de 5 pixels sur un liséré le long du sujet n’est pas vraiment gênant car l’œil se fixe sur le sujet lui-même et non sur son bord immédiat ;

            -dans le cas d’un oiseau en vol, on a souvent intérêt à prendre une vitesse de prise de vue telle qu’on conserve un léger flou sur l’extrémité des ailes qui fait percevoir le mouvement de celles-ci ; le « détourage de l’oiseau sur fond de ciel ne saurait dans ces conditions être très précis et prendre une marge de 5 pixels (voire plus) n’est pas du luxe si on ne veut pas tout gâcher.

 

            Le paramètre rayon du flou gaussien est essentiel. Sur une photo donnée, il est intéressant de faire des essais avec divers rayons car tous les bruits n’ont pas les mêmes caractéristiques. Un rayon de 2 ou 3 pixels suffit souvent. En gros, plus le rayon est grand et plus on « écrase » le bruit et homogénéise le fond, mais plus on risque des effets de bord importants à la limite des zones détourées. Comme le bruit est peu perceptible en bordure d’un sujet se découpant sur un ciel uniforme ou presque, dans l’exemple précédent, j’ai pris le parti de contracter la zone de suppression du bruit de 5 pixels pour un flou de rayon 5 pixels, ce qui est de nature à éviter un risque d’effet de bord. Dans ce genre d’opération, on fera bien de toute façon de vérifier visuellement ce qu’on a fait en agrandissant fortement les zones de bordure de la sélection. On notera aussi qu’il suffit de faire une sélection sans créer de calque nouveau pour autant.

 

            Pour bien comprendre la manière d’agir de la classe d’opérateurs examinée dans ce chapitre, le mieux est d’en revenir aux origines, à une époque où les performances des ordinateurs dédiés au traitement d’image (des satellites d’observation de la Terre) ne permettaient pas des calculs trop lourds.

 

            A cette époque (décennie 1980), les premiers opérateurs de ce type consistaient tout simplement en une matrice 3x3 qui servait à recalculer chaque pixel par un produit matriciel avec les valeurs dans chaque couleur (on disait canal) du pixel concerné et des 8 pixels environnants, puis la moyenne des 9 valeurs de la matrice résultante. Différentes matrices étaient connues pour produire les effets recherchés (netteté plus grande ou au contraire flou).

 

            Avec une complexité mathématique plus grande, en termes de théorie des distributions, on peut parler de convolution de l’image de départ (des valeurs discrètes approximant la distribution correspondante) avec un opérateur qui est une distribution approximée elle-même par une matrice 3x3. A noter que la somme des valeurs des éléments de la matrice doit être égale à 1 si l’on veut qu’il n’y ait pas de dérive au niveau de la luminosité de l’image. Sinon, il faut diviser le résultat par la somme des éléments de la matrice.

 

            Pour ceux que cela amuserait, dans ma version de Photoshop®, il existe une possibilité de paramétrer soi-même des opérateurs de cette sorte sous forme d’une matrice qui peut être 3x3 ou 5x5 (la puissance de calcul a augmenté plus vite que la taille des images…). On y accède par « Filtre/Divers/Autre ». GIMP2® offre actuellement la même possibilité avec un titre très explicite vis-à-vis de mes explications précédentes : « Filtres/Génériques/Matrice de convolution » et la matrice correspondante peut également aller jusqu’à 5x5. En outre, dans cette fonction, sous la rubrique « Bordure », GIMP2® offre un choix entre 3 modes de traitement des bords de l’image. Ceci paraît très intéressant et correspond tout à fait aux réserves que j’ai signalées à propos des problèmes d’effets de bord qui se posent en traitement de photo et notamment avec les filtres de renforcement. Si l’on traite toute l’image en bloc, ce que je recommande, il ne s’agit ici que des bords de la zone de l’image traitée et non des bords apparents des objets présents sur le cliché. Au contraire, dans l’exemple de l’élimination du bruit sur une photo de buse variable ci-dessus, l’effet de bord concerne le sujet lui-même et cette option mérite d’être choisie avec soin, au besoin en procédant à des essais.

 

Je dois avouer que j’ai oublié les valeurs des principaux filtres 3x3 qu’on utilisait et je vous laisse les chercher (on peut y arriver intuitivement ou par de savants raisonnements mathématiques suivant les goûts…). Sauf le « jeu mathématique » correspondant, ou peut-être cette possibilité de prendre en compte les effets de bord, je dois avouer que je ne vois pas très bien l’intérêt pratique pour un photographe qui réalise le traitement courant de ses photos… Quant à créer soi-même des opérateurs 5x5, il va sans dire que c’est encore plus complexe et qu’il faut des notions de mathématiques suffisantes pour définir la fonction (distribution) qu’on veut utiliser et en déduire la matrice de convolution correspondante. Ceci présente tout au plus de l’intérêt pour les professionnels du traitement d’images qui ne semblent pas légion parmi les photographes actuels…

 

            Au niveau plus terre à terre des pixels de la photo, le recalcul de chaque pixel en fonction de lui-même et de ses voisins entraîne la multiplication des pixels composites et aussi des effets parasites sur les limites nettes des éléments composants la scène photographiée. C’est une raison essentielle pour réaliser ces traitements après ceux dans l’espace des couleurs. Sinon, on risque fort une multiplication intempestive du rehaussement de défauts qui ont été plus ou  moins créés de toute pièce par un usage non maitrisé des filtres. Par exemple, dans le cas d’une photo bruitée et elles le sont toutes plus ou moins, l’amélioration de netteté va accroître les différences entre pixels voisins sans qu’on prête trop attention à un rehaussement modéré du bruit… mais si l’on rehausse ensuite le contraste, on va encore amplifier celui-ci qui va devenir insupportable.

 

            6.Les retouches.

 

            Les logiciels de traitement d’images offrent toute une palette d’outils de retouche que je n’analyserai pas. Le but du présent document étant d’aller du boîtier à l’imprimante, il n’est pas d’exposer comment « bidouiller » une photo pour faire autre chose que le sujet initial. Il semble qu’une partie de ces outils soit redondante mais ça n’est pas le sujet ici. Je me  bornerai donc à un cas d’école : la suppression des taches de capteur. Je présenterai deux méthodes, non parce qu’elles sont la panacée mais parce qu’elles correspondent à deux philosophies complètement différentes (et ceux qui voudront extrapoler en déduiront qu’il y a là deux pistes complémentaires pour « bidouiller » une photo…).

 

            La première, la plus classique dans les clubs photo, est tout simplement d’utiliser l’outil tampon. Je ne m’étendrai pas plus dessus, l’utilisation de cet outil étant très simple (ne pas oublier de le paramétrer correctement en fonction de la taille des taches à traiter).

            La deuxième est tout aussi simple. Elle consiste à sélectionner, à l’aide du lasso par exemple, une « pastille » dans un secteur analogue à celui de la tache (dans un ciel, cas le plus courant, mieux vaut en général la prendre le plus près possible de la tache à éliminer). On fait ensuite Copier puis Coller et on déplace la pastille correspondante de façon à occulter la tache. Cette procédure crée un calque et appelle plusieurs remarques :

            -plus le découpage est irrégulier et plus il se fondra dans l’ensemble de la photo ; il n’est donc pas recommandé de sélectionner un rectangle…

            -si la pastille se révèle trop petite, il est possible de réitérer Coller et de compléter ainsi l’opération de masquage ; de même, on peut réitérer pour cacher plusieurs taches du même secteur ;

-elle permet d’occulter des taches plus grosses que le tampon ;

-créant un calque, si l’on veut réitérer pour cacher une autre tache de capteur dans une autre zone, il ne faut pas oublier, soit de se repositionner sur le bon calque, soit de fusionner le tout avant de faire une nouvelle sélection ;

-mais cette méthode trouve tout son intérêt quand on veut faire disparaître des éléments intempestifs de l’image ; en collant des « bouts » prélevés dans des endroits astucieux et en superposant astucieusement les calques correspondants, on peut arriver à des modifications de l’image… qui sont ici totalement hors sujet, donc je n’en écris pas plus… (sauf pour préciser qu’en combinant avec l’utilisation de quelques outils de retouche comme le doigt ou le pinceau, on a là un outil extrêmement puissant…).

 

7.Traitements globaux, habillage.

 

Les traitements globaux que j’évoque, filtre sur transformée de Fourier, traitements géométriques (homothéties, redressements de fuyantes, morphing,…), montages panoramiques, suppression du flou par montage de plusieurs clichés superposés, ne rentrent pas dans le sujet traité ici. Ils sont évoqués pour mémoire car ils peuvent néanmoins être très intéressants pour le photographe.

 

L’habillage n’est pas un travail photographique mais de présentation, au même titre que les photomontages. En outre, de très bons exposés ont été faits par ailleurs sur ce sujet au club photo de Gagny. Je n’en parlerai donc pas.

 

Il reste par contre un point essentiel pour imprimer la photo, c’est sa mise à la bonne dimension que je vais traiter en 8. ci-après.

 

Sans entrer dans les détails, il y a quelques classes de « traitements globaux » qui sont essentielles ou utilisées par certains logiciels de manière « transparente » pour l’utilisateur.

 

Pour ce qui est de tous les traitements géométriques complexes, on se reportera à ce qui est écrit plus loin sur le changement de taille de l’image. Les algorithmes peuvent être complexes (morphing) ou non, la question du rééchantillonnage reste la même et sera examinée à ce moment. Je ne détaillerai donc pas plus ici. A propos du morphing, pour ceux qui voudraient l’essayer, je signale le logiciel gratuit SqMorph que j’ai chargé mais n’ai pas eu le temps de tester.

 

Les filtres sur transformée de Fourier et cette transformation en elle-même (ou des transformations étudiées plus récemment, comme les ondelettes par exemple) sont un aspect essentiel. Je n’entrerai pas dans la théorie de la transformation de Fourier qui se trouve dans tous les « bons livres de mathématique ». Il faut juste en retenir :

-qu’elle est bien connue des professionnels du traitement de certains types de photo depuis fort longtemps car elle peut se réaliser par voie optique, je vais y venir ;

-qu’elle a été utilisée en traitement numérique d’images depuis fort longtemps car elle avait une utilité en traitement de l’imagerie médicale ;

-qu’elle est sa propre inverse : la transformée de Fourier de la transformée de Fourier d’une image est l’image elle-même… sauf si l’on a appliqué un filtre entre temps, ce qui peut faire son intérêt ;

-qu’étant très gourmande en temps de calcul, elle n’a pu être utilisée en photographie numérique qu’assez tardivement (les images médicales traitées étaient moins grosses) ; les ordinateurs actuels peuvent la calculer sans problème.

 

La transformation de Fourier sur photographies par voie optique a été mise au point et utilisée vers 1970, notamment à l’Institut Français du Pétrole. Elle ne nécessite qu’un laser et une lentille montés sur un banc optique. Le laser étant monochromatique, elle ne pouvait donc traiter que des photos en noir et blanc. Comme il s’agissait à l’époque essentiellement de traiter des photographies aériennes et que celles-ci étaient alors très généralement en noir et blanc, ça n’était pas un problème.

 

Le processus est très simple : on éclaire le négatif de la photo avec le laser et une lentille convexe est placée à la suite sur le banc optique. Trois lignes de démonstration mathématique à partir de la définition de la transformée montrent immédiatement que la transformée de Fourier est visible dans le plan focal de la lentille. En effet, si, à partir de l’équation des ondes électromagnétiques, on écrit la formule de la transformée de l’image à l’infini, on obtient immédiatement la définition même de la transformée de Fourier sans aucun calcul. Comme, sur un faisceau de lumière parallèle, une lentille ramène l’image de ce qui serait à l’infini dans le plan focal, on obtient la transformée de Fourier dans le plan focal de la lentille. Si l’on dispose une lentille identique à la première à une distance focale plus loin, on fait la transformation inverse et l’on récupère l’image initiale dans la suite du banc optique, par exemple sur un film. Si l’on a intercalé un filtre (qui peut être un simple morceau de carton) à l’endroit de la transformée de Fourier, l’image qu’on récupère est l’image filtrée. Il est nécessaire d’utiliser un laser car la transformée de Fourier est sa propre inverse à condition d’avoir conservé l’amplitude de l’onde électromagnétique mais aussi sa phase. Cette dernière serait perdue en l’absence d’’un éclairage par une lumière cohérente.

 

L’intérêt de la transformée de Fourier est qu’elle présente une image des fréquences contenues dans la photographie. Si vous photographiez un lion en cage derrière une série de barreaux ou un grillage. La fréquence des barreaux ou du grillage et leur orientation  correspondront à une zone précise de la transformée. En filtrant cette zone, vous obtiendrez une photo du « lion sans cage ». Attention, je ne prétends pas que vous obtiendrez une bonne photo du lion sans cage ! La transformée de Fourier ne recrée pas l’information manquante sur le cliché initial ! Un tel filtre est ce qu’on appelle un filtre fréquentiel.

 

Si l’on filtre les hautes fréquences, on aura ainsi un filtre passe bas (les basses fréquences passent…). Ceci peut permettre de supprimer le bruit qui est constitué par des éléments de haute fréquence… mais on risque fort d’éliminer également les zones les plus détaillées donc intéressantes de la photo qui correspondent en général à des fréquences analogues.

 

En pratique, j’ai repéré deux usages pratiques actuels de la transformée de Fourier (ou des transformées « parentes ») :

-elle est utilisée en même temps que d’autres techniques pour réaliser la combinaison de photos d’un même sujet avec des distances de mise au point différentes afin d’éliminer le flou ; elle permet notamment de repérer des zones de flou (donc de fréquence exagérément basse) ou au contraire pour faire un filtre passe bas (qui garde les hautes fréquences qui sont celles où il y a de l’information nette… à condition que celle-ci ne soit pas un bruit intempestif…)

-elle, ou des transformées « parentes », est utilisée dans l’algorithme de création de la compression en  jpeg, mais j’en parlerai ailleurs, en même temps que du RAW ;

-il ne fait pas de doute dans mon esprit que la généralisation de son usage serait très intéressante pour les photographes, à la condition qu’ils fassent un petit effort du côté des mathématiques pour bien comprendre comment elle fonctionne ; il existe déjà des logiciels sur le marché qui la font (avec le filtrage qui va avec) ; au moment où j’écris ces lignes, j’ai par exemple chargé depuis longtemps le logiciel gratuit ImageJ® qui la fait (sous le nom abrégé anglais FFT, Fast Fourier Transformation) parmi bien d’autres traitements ; plus occupé par la photo que par des recherches compliquées de  mise au point de  méthodes, je n’ai pas eu le temps nécessaire à lui consacrer pour le maitriser ; en recherchant sur Internet, il m’apparaît que Photoshop® peut la proposer à partir de la version CS3, au moins sous forme de plug-in ; de même, il est possible qu’il existe des possibilités du côté des Greffons ou Script-fu de GIMP2® ; avis à ceux qui voudront se pencher sur la question et me faire part de leurs résultats ! Pour tester l’un ou l’autre, j’attends qu’on me fournisse une photo de canari en cage (c’est moins dangereux de libérer ce charmant oiseau qu’un lion…).

 

Pour l’anecdote, la transformée de Fourier par voie optique a été utilisée jadis sur les photos aériennes pour repérer divers phénomènes répétitifs comme par exemple :

-repérage de parcellaires d’époque romaine (ou autre…) fondés sur une métrique connue et qui n’est plus usitée de nos jours ou dont les limites sont toutes de même direction ;

-repérage de rythmes ou de directions privilégiées dans les formations géologiques sédimentaires ;

-mise en évidence automatique des plantations régulières (peupleraies, vergers, etc.) ;

-etc.

 

D’une manière générale, il y a tout un vaste domaine que je n’aborde pas car il entraînerait trop loin, mais qui est présent dans bon nombre d’outils des logiciels actuels ; c’est le domaine de l’analyse d’image. On fait par exemple appel à ses méthodes pour faire des outils qui mettent en évidence ou suivent automatiquement… et avec plus ou moins de bonheur… des limites sur une photo. La topologie et la théorie des graphes sont des disciplines mathématiques auxquelles elle fait appel.

 

8.Changement de taille de l’image pour l’impression.

 

Quand on est enfin content de l’image qu’on a obtenue, il ne reste plus qu’à l’imprimer ! Encore faut-il la mettre à la bonne taille ! Les logiciels de traitement d’image font cette opération très simplement dans une rubrique qui s’appelle en général « Taille de l’image »… mais encore faut-il paramétrer correctement.

 

Ci-après un exemple d’emploi de la fonction « Taille de l’image ». Le paramétrage se fait de la manière suivante :

-la taille de l’image paraît évidente ; par exemple, si l’on veut faire du format A4, il faut mettre Largeur=29,7 avec une unité en centimètres ; si l’on a correctement recadré l’image dans les proportions souhaitées, Hauteur se mettra automatiquement à 21,0 (à peu de choses près, il peut y avoir de petits décalages) ; suivant qu’on veut une marge ou au contraire imprimer à bords perdus (sans marge), il faudra peut-être prendre une taille légèrement différente ; tout ceci est variable suivant les imprimantes utilisées et ne peut être détaillé ici ; il faut cependant rester dans des limites raisonnables : on ne saurait imprimer un drap de lit en partant d’une image de la taille d’un timbre poste ! Ce serait techniquement faisable… mais le résultat serait certainement aussi étonnant que peu esthétique !

-pour une bonne finesse de l’impression, il est recommandé de mettre comme résolution 300 pixels/pouce (ou 300dpi, dots per inch) ;

 

 

 

-le choix du mode de rééchantillonnage n’est pas du tout négligeable ; on entend par rééchantillonnage le calcul des valeurs pour les pixels de la nouvelle image ; voir le schéma ci-après pour comprendre de quoi il retourne ; les logiciels offrent souvent trois possibilités : au plus proche (voisin), bilinéaire et bicubique ; souvent, c’est bicubique qui se met automatiquement sauf si on le change ; en fait la qualité de l’image finale peut en être assez largement affectée ; les critères de choix sont :

            -au plus proche voisin : permet de conserver toute la netteté de l’image et de rester le plus proche possible des résultats du traitement qu’on vient d’effectuer, ce qui n’a rien de négligeable !

            -bicubique étale au contraire toutes les limites donc rend celles-ci plus floues ; au final, l’image obtenue perd donc en netteté ; cela peut cependant présenter deux intérêts ; d’une part un intérêt artistique : il n’est pas forcément souhaitable qu’une image soit la plus nette et dure possible ; mais surtout, ce mode de rééchantillonnage permet d’atténuer les bruits résiduels, ce qui peut être très intéressant ;

            -on peut dire schématiquement que bilinéaire se situe entre les deux.

 

Je rappelle que j’avais déjà évoqué ceci sans l’expliquer au chapitre 3., au niveau de la rotation des images. On comprend en tout cas que, si l’on choisit bicubique ou bilinéaire, ce genre d’opération doit autant que faire se peut avoir lieu en fin de traitement de la photo car son influence sur les traitements ultérieurs reste imprévisible ; ce n’est pas le cas si l’on travaille  au plus proche, d’où la nécessité de travailler au plus proche quand on fait une rotation en début de traitement (si le logiciel utilisé propose cette possibilité).

 

 

 

            L’explication du rôle du mode de rééchantillonnage peut se faire de manière plus ou moins complexe. Une manière simple consiste à dire que dans le cas du « plus proche voisin », un nouveau pixel prend directement les valeurs du pixel le plus proche de l’image avant changement de taille. Il n’y a aucun calcul. On ne génère aucun pixel composite différent de ceux qui existent déjà dans l’image. Par contre « bicubique », mais aussi « bilinéaire » réalise un calcul (polynomial) sur un groupe de pixels de l’image ; ce groupe est centré sur le pixel correspondant de l’image recalculée ; en pratique, on obtient donc un écrasement des limites nettes avec la multiplication des pixels composites de valeurs variées ; dans ces conditions, on obtient l’effet indiqué précédemment, une image moins nette, mais avec des pixels de bruits qui seront aussi quelque peu « écrasés », ce qui atténuera d’autant le bruit.

 

            A un niveau plus poussé, on peut dire que le calcul de l’image changée de taille se fait en opérant une convolution (au sens de la théorie des distributions) de l’image initiale avec un opérateur qui n’est pas le même dans les deux cas. Dans le cas « bicubique », l’opérateur est bien connu en analyse élémentaire puisqu’il s’agit d’une fonction continue. Dans le cas du « plus proche voisin », l’opérateur est fondamentalement discontinu puisqu’il s’agit d’une distribution de la famille de la distribution de Dirac (je ne me souviens plus exactement laquelle mais je laisse les passionnés de mathématique la retrouver, peut-être bien la distribution de Dirac elle-même). On voit alors très bien où l’on met les pieds ! Une photo est un document représentant un réel foncièrement discontinu : pour prendre un exemple simple, un personnage sur la photo présente une discontinuité avec le fond devant lequel il est photographié. Si l’on travaille avec le « plus proche voisin », on convole avec un opérateur discontinu qui préserve les discontinuités (mais y compris le bruit s’il s’en trouve). Par contre, si l’on convole avec une fonction continue, on va écraser un peu les discontinuités. Le personnage présentera une limite plus floue avec le fond, mais le bruit ira se perdre aussi un peu plus dans le fond.

 

            Il n’y a pas pour autant de bonne et de mauvaise solution car le but n’est pas de faire des mathématiques. Il s’agit d’un choix artistique qui ne sera pas toujours le même en fonction de ce qu’on veut réellement faire avec la photo (et aussi d’éventuels défauts qu’elle peut présenter). Mais encore faut-il être conscient que ce  choix est offert et de ce qu’il recouvre.

 

            Il faut quand même souligner que certains choix qui ne sautent pas aux yeux si l’on n’y a pas réfléchi préalablement peuvent contribuer assez largement à éliminer des bruits résiduels (dans des limites raisonnables). Je citerai :

-le choix du rééchantillonnage bicubique évoqué ci-dessus ;

-aussi étonnant que cela puisse paraître, le fait de coder l’image en jpeg avec une résolution moyenne et non pas maximale peut contribuer à éliminer le bruit plus que dégrader l’image ; à utiliser avec précaution cependant ; j’approfondirai cela lorsque je traiterai du RAW et du jpeg ;

-le choix de certaines options d’impression (diffusion par exemple) peut également agir sur le bruitage du document final.

 

            9.L’impression de la photo.

 

            Il n’y a alors plus qu’à imprimer… Le résultat dépendra de la qualité de l’imprimante… mais aussi du paramétrage de celle-ci dans le logiciel qui lance l’impression. Il est bien évident que laisser comme paramètre d’impression « papier ordinaire », ou quelque chose d’approchant, alors qu’on imprime sur du super papier photo à 300g serait gâcher la marchandise ! Je ne saurais détailler car il existe une multitude de paramétrages différents suivant les marques et modèles d’imprimante. A chacun de connaître son matériel.

 

            Une remarque essentielle cependant. Il peut arriver qu’on ait une photo qui paraît parfaitement satisfaisante sur l’écran de l’ordinateur et qu’on trouve une dérive importante des couleurs sur le document imprimé. Avant toute action pour rectifier le tir, modification de la balance des couleurs dans le logiciel de traitement ou changement du paramétrage de l’imprimante, il faut attendre d’avoir regardé le document imprimé sous un autre éclairage et surtout en lumière du jour. Il m’arrive personnellement d’avoir des dérives considérables de couleur sur des documents imprimés le soir… uniquement parce que je les regarde en lumière artificielle. Le lendemain matin, à la lumière du jour, ils sont redevenus conformes à ce que j’attendais… S’ils ne le sont pas, ce qui peut arriver, il convient d’agir sur le paramétrage de l’impression pour essayer de s’en sortir, mais cela n’a rien d’évident. Tâtonnements et gâche de papier sont à l’ordre du jour ! Le problème peut également se poser avec des sorties photos du commerce qui présentent parfois des dérives affligeantes, et ce quel que soit l’éclairage du document ! Dans ce cas, on peut toujours essayer de réclamer auprès du fournisseur…

 

            Calibration des écrans et des imprimantes.

 

            Le maître mot chez les photographes dès que des couleurs ne répondent pas à ce qu’on attendait d’elles est « calibration ». L’écran est mal calibré, le vidéoprojecteur l’est encore moins bien, quant à l’imprimante, ne m’en parlez pas !

 

            Il est certes possible de calibrer tous ces instruments mais il faut être conscient de plusieurs choses avant de commencer. Tout d’abord, quel que soit l’appareil à calibrer, il faut une sonde qui mesure le rayonnement émis ou réfléchi (image imprimée) par l’appareil. Ensuite, il faut que l’appareil en question soit effectivement doté de possibilités de calibration, au niveau du matériel ou du logiciel pilote de celui-ci.

 

            A partir de là, un logiciel de calibration pourra fournir les mires nécessaires et toute la procédure car la calibration en question n’est pas obligatoirement linéaire. Mais  surtout, s’il sera alors relativement facile de calibrer des appareils qui émettent de la lumière, écran d’ordinateur, vidéoprojecteur (ou plutôt, couple vidéo-projecteur / écran sur lequel on projette…), à condition de se placer dans l’obscurité, il sera quasi impossible de calibrer une imprimante. En effet, comme je l’ai souligné dans le texte principal, l’appréciation visuelle des couleurs d’une image imprimée est fonction de l’éclairage auquel elle est soumise. Il en va de même des mesures qu’on pourra faire avec une sonde. Pour calibrer une imprimante, il faudra donc se placer dans des conditions d’éclairage parfaitement normalisées, c’est-à-dire avec un éclairage parfaitement défini et dans une pièce ne recevant aucune autre lumière, et surtout pas de lumière du jour. Et ne dites surtout pas que vous voulez une calibration en lumière du jour car si vous n’utilisez pas une lampe calibrée simulant la vraie lumière du jour, il n’y a pas plus changeant que cette dernière suivant la hauteur du soleil, la nébulosité, etc. A mon sens, la calibration d’une imprimante est donc réservée aux professionnels qui ont besoin que leur matériel fournisse des résultats stables dans le temps et répondant à des critères qu’ils ont définis ou à des standards. N’oubliez pas qu’en argentique, suivant les fabricants, les films étaient réputés présenter des dominantes variables, bleues ou jaunes par exemple. C’est exactement la même chose avec l’impression (ou le tirage sur film) de photos et je viens de l’apprendre à mes dépens en faisant tirer dans le commerce une photo numérique par procédé photographique… et en obtenant une dominante verte d’une laideur totale et ne correspondant en aucun cas à ce que j’avais sur mon écran et sur mon imprimante !

 

            Synthèse additive et soustractive, quadrichromie.

 

            Faire un développement complet sur les synthèses additive et soustractive et surtout la quadrichromie entraînerait très loin dans la colorimétrie et les techniques d’impression et il existe des ouvrages complets qui s’appesantissent sur le sujet. Maitriser tout cela est un métier. On me  pardonnera donc les approximations que j’ai dû faire dans les lignes suivantes pour donner une toute petite idée de ce qui se passe. Je ne pouvais cependant faire l’impasse car j’ai vu des horreurs publiées dans des revues très sérieuses et de grande diffusion ; par exemple un article où il était écrit qu’une photo numérique avait 6 composantes : bleu, vert, rouge, cyan, magenta et jaune !

 

            Quand on affiche une photo sur un écran d’ordinateur, on éclaire l’écran avec les trois couleurs fondamentales, bleu, vert rouge. On comprend aisément que plus on envoie de lumière dans ces trois couleurs, plus l’écran est éclairé et donc plus l’image est pâle, pour arriver au blanc si l’on envoie le maximum. C’est bien pour cela que dans l’espace des couleurs et dans les graphiques qui vont avec, histogramme par exemple, on va du noir à 0,0,0 au blanc à 255,255,255. On parle de « synthèse additive » car les couleurs s’additionnent pour donner de plus en plus de lumière.

 

            Inversement, quand on imprime un document, plus on met d’encre, plus le document sera sombre. On parle alors de « synthèse soustractive » car on soustrait de la lumière en ajoutant de l’encre. L’addition de bleu et vert correspond à la soustraction de cyan, et de même pour vert et rouge avec jaune et pour bleu et rouge avec magenta. L’illustration ci-dessous présente ceci mieux qu’un long discours.[3]On travaillera donc sur bleu, vert, rouge tant qu’on est à l’écran et on imprimera avec des encres cyan, magenta et jaune.

 

 

            Certaines imprimantes ont en plus des cartouches d’encre noire et vous avez peut-être entendu parler d’ « impression en quadrichromie ». Une approche extrêmement simpliste peut être faite. Si vous avez comme valeurs d’impression pour un pixel de votre image numérique : cyan : 59, magenta : 118 et jaune : 42, vous pouvez mettre les trois encres en proportion mais vous pouvez aussi mettre du noir pour la valeur la plus faible, soit 42 (ce qui donnera un gris), et soustraire 42 aux autres valeurs, donc vous ne mettrez pas pour ce pixel de jaune et vous mettrez : cyan : 17 et magenta : 76 (et noir : 42). J’insiste sur le fait que je simplifie abusivement vis-à-vis de la complexité des techniques d’impression, mais cette explication donne une image facilitant la compréhension de ce qu’est la quadrichromie. Il se trouve que la qualité de l’impression et l’économie de l’encre sont meilleures avec ce procédé. Ceci n’a rien à voir avec les constructeurs d’écran de télévisions dont certains se sont maintenant mis à introduire un canal jaune en plus du bleu, vert, rouge classiques en synthèse additive ; des explications à ce sujet sortiraient totalement du cadre de la photo et ce procédé reste un peu contestable, même s’il existe quelques justifications techniques du côté de la physiologie de l’œil humain.

 

 

 

 

 

 



[1] « Un être humain dont la vision des couleurs est considérée comme normale est capable de percevoir 15000 nuances. » (site Internet du Syndicat National des Ophtalmologistes de France le 2 avril 2011) (http://www.snof.org/vue/couleurs1.html)

ou encore de 3000 à 20.000 pour le site de l’Université de Rennes :

«au total,  l’homme perçoit :

- 256 échelons colorimétriques différents

- 3000 sensations chromatiques différentes,

en tenant compte des pourpres et des teintes désaturées (20000 pour les

trieurs de laine des Gobelins )

- pour mémoire, 12 gris seulement » http://medapod.univ-rennes1.fr/medcast2/wp-content/uploads/vision-couleurs-2009.pdf )

 

[2] Patrice FOIN. Cartographie topographique et thématique. Editions Paradigme. Caen 1987. Cet ouvrage maintenant épuisé n’apporte guère pour le photographe amateur mais peut encore satisfaire la curiosité de ceux qui veulent en savoir plus, notamment sur les manières de procéder en matière d’observation de la Terre.

[3] Illustration issue de Wikipedia, http://fr.wikipedia.org/wiki/Synth%C3%A8se_additive